JP4747573B2 - 音声情報加工システム、音声情報加工方法及び音声情報加工プログラム - Google Patents

音声情報加工システム、音声情報加工方法及び音声情報加工プログラム Download PDF

Info

Publication number
JP4747573B2
JP4747573B2 JP2004371605A JP2004371605A JP4747573B2 JP 4747573 B2 JP4747573 B2 JP 4747573B2 JP 2004371605 A JP2004371605 A JP 2004371605A JP 2004371605 A JP2004371605 A JP 2004371605A JP 4747573 B2 JP4747573 B2 JP 4747573B2
Authority
JP
Japan
Prior art keywords
voice
data
information
customer
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004371605A
Other languages
English (en)
Other versions
JP2006178203A (ja
Inventor
香一郎 畑崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2004371605A priority Critical patent/JP4747573B2/ja
Publication of JP2006178203A publication Critical patent/JP2006178203A/ja
Application granted granted Critical
Publication of JP4747573B2 publication Critical patent/JP4747573B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音声情報を加工する音声情報加工システム、音声情報加工方法及び音声情報加工プログラムに関し、特に顧客の個人情報等の秘密情報の漏洩を防止できる音声情報加工システム、音声情報加工方法及び音声情報加工プログラムに関する。また、本発明は、音声情報加工システムを用いた情報処理システム及び音声情報蓄積方法に関する。
コールセンタやコンタクトセンタで受け付けた顧客からの問い合わせ内容には、顧客の要望や苦情等の情報が含まれ、商品やサービスを改善したり顧客満足度を向上させたりするためのヒントとなる多種多様の有用な情報が含まれている。そのため、コールセンタやコンタクトセンタへの顧客からの問い合わせ内容の会話を、音声データや、音声内容を書き起こしたテキストデータの形でデータベース化し、関係部署でデータベースを共有できるようにすることが考えられる。問い合わせ内容をデータベース化し業務や顧客対応の改善を支援できるシステムとして、例えば、非特許文献1には、顧客とオペレータとの通話の音声を記録する通話録音システムが記載されている。
Agent Stage 、[online]、西日本電信電話株式会社、[平成16年9月27日検索]、インターネット< URL : http://www.ntt-west.co.jp/kiki/business/crm/agentstage/detail_3.html >
非特許文献1に記載された通話録音システムによれば、顧客とオペレータとの通話の音声を記録してデータベース化することができる。しかし、顧客とオペレータとの会話内容には顧客の個人情報等の秘密情報が含まれていることが多い。そのため、顧客とオペレータとの会話の音声や、顧客とオペレータとの会話音声の内容を書き起こしたテキストが関係部門でそのまま共有されると、顧客の秘密情報が漏洩してしまう可能性がある。
そこで、本発明は、会話の音声を記録する場合に顧客の個人情報等の秘密情報の漏洩を防止することができる音声情報加工システム、情報処理システム、音声情報加工方法、音声情報蓄積方法及び音声情報加工プログラムを提供することを目的とする。
本発明による音声情報加工システムは、処理対象の音声データを入力し、入力した処理対象の音声データを音声認識してテキストデータに変換する音声認識手段(例えば、音声認識装置301によって実現される)と、音声認識手段が変換したテキストデータ中の文字列位置と処理対象の音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成する対応テーブル生成手段と、テキストに含まれる秘密情報の箇所を特定するための秘密箇所特定情報(例えば、所定のキーワードや出現パターン情報)を記憶する特定情報記憶手段(例えば、キーワード記憶装置302によって実現される)と、特定情報記憶手段が記憶する秘密箇所特定情報、及び音声認識手段が変換したテキストデータに基づいて、処理対象の音声データに含まれる秘密情報の出現位置を検出する検出手段(例えば、検出装置303によって実現される)と、検出手段が検出した処理対象の音声データ中の秘密情報の箇所の先頭部分に対応する時間を時間対応テーブルから開始時間として抽出するとともに、検出手段が検出した処理対象の音声データ中の秘密情報の箇所の末尾部分に対応する時間を時間対応テーブルから終了時間として抽出する時間抽出手段と、処理対象の音声データ中の開始時間から終了時間までの音声を加工する音声加工手段(例えば、置換装置304によって実現される)と、音声加工手段による加工後の音声データを記憶する音声データ記憶手段とを備えたことを特徴とする。
また、特定情報記憶手段は、秘密箇所特定情報として、所定のキーワード(例えば、顧客名や顧客住所、顧客の電話番号)又はテキスト中におけるキーワードの出現パターン(例えば、顧客名や顧客住所、顧客の電話番号の出現パターン)を示す出現パターン情報を記憶し、検出手段は、特定情報記憶手段が記憶するキーワード又は出現パターン情報に示される出現パターンが、音声認識手段が変換したテキストデータに含まれるか否かを判断することによって、処理対象の音声データに含まれる秘密情報の出現位置を検出するものであってもよい。そのような構成によれば、テキスト中に顧客名や顧客住所、顧客の電話番号等の秘密情報が出現したか否かを容易に判定することができる。
また、検出手段は、処理対象の音声データに含まれる秘密情報の出現位置を検出すると、検出した秘密情報の箇所の位置を示す秘密箇所位置情報を生成し、音声加工手段は、検出手段が生成した秘密箇所位置情報に基づいて、処理対象の音声データに含まれる秘密情報の箇所を特定し、特定した秘密情報の箇所の音声を加工するものであってもよい。そのような構成によれば、秘密箇所位置情報に基づいて、音声データ中の秘密情報の箇所を容易に特定することができる。
また、音声情報加工システムは、検出手段は、秘密箇所位置情報として、検出した秘密情報の文字列のテキスト中での位置を示す位置情報(例えば、テキスト中の行や列)を生成し、音声加工手段は、対応テーブル生成手段が生成した時間対応テーブルに基づいて、検出手段が生成した秘密箇所位置情報に示される秘密情報の位置を対応する時間に変換することによって、処理対象の音声データにおける秘密情報の箇所を特定するものであってもよい。そのような構成によれば、秘密情報の箇所の開始時間と終了時間とを特定し、特定した開始時間から終了時間までの音声を加工することによって、音声データ中の秘密情報の箇所を容易に加工することができる。
また、音声情報加工システムは、検出手段は、秘密箇所位置情報として、対応テーブル生成手段が生成した時間対応テーブルに基づいて、検出した秘密情報の位置を対応する時間に変換した時間情報を生成するものであってもよい。そのような構成によれば、秘密情報の箇所の開始時間と終了時間とを特定し、特定した開始時間から終了時間までの音声を加工することによって、音声データ中の秘密情報の箇所を容易に加工することができる。
また、音声加工手段は、検出手段の検出結果に基づいて、処理対象の音声データ中の秘密情報の出現位置に対応する部分の音声を削除又は別の音声に置換するものであってもよい。そのような構成によれば、秘密情報の箇所の音声を削除又は別の音声に置換することによって、音声データ中の秘密情報を秘匿することができる。
また、音声情報加工システムは、顧客とオペレータとの会話の音声を含む音声データを入力し、入力した音声データを音声認識してテキストデータに変換する音声認識手段と、音声認識手段が変換したテキストデータ中の文字列位置と音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成する対応テーブル生成手段と、所定のキーワード又はキーワードの出現パターンを示す出現パターン情報を記憶するキーワード記憶手段(例えば、キーワード記憶装置302によって実現される)と、音声認識手段の音声認識結果に基づいて、キーワード記憶手段が記憶するキーワード又は出現パターン情報に示される出現パターンが、音声データ中に出現する出現位置を検出する検出手段と、検出手段が検出した音声データ中の出現位置の箇所の先頭部分に対応する時間を時間対応テーブルから開始時間として抽出するとともに、検出手段が検出した音声データ中の出現位置の箇所の末尾部分に対応する時間を時間対応テーブルから終了時間として抽出する時間抽出手段と、音声データ中の開始時間から終了時間までの音声を削除又は別の音声に置換する置換手段(例えば、置換装置304によって実現される)と、置換手段による削除又は置換後の音声データを記憶する音声データ記憶手段とを備えたものであってもよい。
また、音声情報加工システムは、顧客とオペレータとの会話の音声を含む音声データのうちの秘密情報が含まれる範囲を指定する範囲指定手段(例えば、位置指定装置306によって実現される)を備え、音声認識手段は、入力した音声データのうち、範囲指定手段が指定した範囲の音声を音声認識するものであってもよい。そのような構成によれば、音声データ中の秘密情報に該当する部分を、より的確に削除又は別の音声に置換することができる。従って、音声を検索し再生したときであっても秘密情報を秘匿することができ、秘密情報の漏洩をより高精度に防止することができる。
また、範囲指定手段は、オペレータと顧客との通話中に、ユーザ(例えば、オペレータ等の操作者)の操作に従って音声データ中の秘密情報が含まれる範囲を指定し、又は、オペレータと顧客との通話が終了した後に、通話を録音した音声データに対して、ユーザの操作に従って秘密情報が含まれる範囲を指定するものであってもよい。そのような構成によれば、オペレータが顧客との会話中に顧客の個人情報等の秘密情報が出現したことを指示することによって、音声データ中の秘密情報に該当する部分を、より的確に削除又は別の音声に置換することができる。
また、音声認識手段は、顧客とオペレータとの通話中に、逐次顧客とオペレータとの通話の音声データを入力して音声認識し、又は、通話の音声を録音する通話録音装置が蓄積する音声データを入力して音声認識するものであってもよい。
また、音声情報加工システムは、顧客とオペレータとの通話内容を書き起こしたテキストデータである書き起こしテキストを記録する書起テキスト記録手段(例えば、書起テキスト記録装置204によって実現される)と、書き起こしテキスト中の検出手段が検出したキーワード又はキーワードの出現パターンの出現位置に対応する部分の文字列を、削除又は別の文字列に置換するテキスト置換手段(例えば、テキスト置換装置305によって実現される)とを備えたものであってもよい。そのような構成によれば、書き起こしテキストを検索した場合であっても、秘密情報の漏洩を防止することができる。
本発明による情報処理システムは、音声データを加工し、加工した音声データを処理する情報処理システム(例えば、コールセンタシステム)であって、音声データを加工する音声情報加工システムを備え、音声情報加工システムは、処理対象の音声データを入力し、入力した音声データを音声認識してテキストデータに変換する音声認識手段と、音声認識手段が変換したテキストデータ中の文字列位置と音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成する対応テーブル生成手段と、所定のキーワード又はキーワードの出現パターンを示す出現パターン情報を記憶するキーワード記憶手段と、音声認識手段の音声認識結果に基づいて、キーワード記憶手段が記憶するキーワード又は出現パターン情報に示される出現パターンが、音声データ中に出現する出現位置を検出する検出手段と、検出手段が検出した音声データ中の出現位置の箇所の先頭部分に対応する時間を時間対応テーブルから開始時間として抽出するとともに、検出手段が検出した音声データ中の出現位置の箇所の末尾部分に対応する時間を時間対応テーブルから終了時間として抽出する時間抽出手段と、音声データ中の開始時間から終了時間までの音声を削除又は別の音声に置換する置換手段と、置換手段による削除又は置換後の音声データを記憶する音声データ記憶手段とを含むことを特徴とする。
また、情報処理システムは、オペレータ端末と、顧客端末とオペレータ端末との通信回線を接続する回線接続手段(例えば、回線接続装置103によって実現される)と、顧客とオペレータとの通話の音声を録音する通話録音手段(例えば、通話録音装置202によって実現される)と、通話録音手段が記録する音声データを検索し、音声データを再生する検索手段(例えば、検索端末203によって実現される)とを備え、通話録音手段は、置換手段の指示に従って、記録する音声データを加工後の音声データに更新し、検索手段は、通話録音装置が記録する加工後の音声データを抽出し、抽出した音声データに基づいて加工後の音声を再生するものであってもよい。そのような構成によれば、検索手段から通話録音手段が記録する音声データを検索し再生した場合であっても、秘密情報の漏洩を防止することができる。
また、情報処理システムにおいて、音声情報加工システムは、顧客とオペレータとの会話の音声を含む音声データのうちの秘密情報が含まれる範囲を指定する範囲指定手段を含み、音声認識手段は、入力した音声データのうち、範囲指定手段が指定した範囲の音声を音声認識するものであってもよい。そのような構成によれば、音声データ中の秘密情報に該当する部分を、より的確に削除又は別の音声に置換することができる。従って、音声を検索し再生したときであっても秘密情報を秘匿することができ、秘密情報の漏洩をより高精度に防止することができる。
また、情報処理システムにおいて、範囲指定手段は、オペレータと顧客との通話中に、ユーザの操作に従って音声データ中の秘密情報が含まれる範囲を指定し、又は、オペレータと顧客との通話が終了した後に、通話を録音した音声データに対して、ユーザの操作に従って秘密情報が含まれる範囲を指定するものであってもよい。そのような構成によれば、オペレータが顧客との会話中に顧客の個人情報等の秘密情報が出現したことを指示することによって、音声データ中の秘密情報に該当する部分を、より的確に削除又は別の音声に置換することができる。
また、情報処理システムにおいて、音声認識手段は、顧客とオペレータとの通話中に、逐次顧客とオペレータとの通話の音声データを入力して音声認識し、又は、通話の音声を録音する通話録音装置が蓄積する音声データを入力して音声認識するものであってもよい。
また、情報処理システムにおいて、音声情報加工システムは、顧客とオペレータとの通話内容を書き起こしたテキストデータである書き起こしテキストを記録する書起テキスト記録手段と、書き起こしテキスト中の検出手段が検出したキーワード又はキーワードの出現パターンの出現位置に対応する部分の文字列を、削除又は別の文字列に置換するテキスト置換手段とを含むものであってもよい。そのような構成によれば、検索手段から書き起こしテキストを検索した場合であっても、秘密情報の漏洩を防止することができる。
本発明による音声情報加工方法は、顧客とオペレータとの会話の音声を含む音声データを入力し、入力した音声データを音声認識してテキストデータに変換するステップと、変換したテキストデータ中の文字列位置と音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成するステップと、所定のキーワード又はキーワードの出現パターンを示す出現パターン情報を記憶するステップと、音声認識結果に基づいて、記憶したキーワード又は出現パターン情報に示される出現パターンが、音声データ中に出現する出現位置を検出するステップと、検出した音声データ中の出現位置の箇所の先頭部分に対応する時間を時間対応テーブルから開始時間として抽出するとともに、検出した音声データ中の出現位置の箇所の末尾部分に対応する時間を時間対応テーブルから終了時間として抽出するステップと、音声データ中の開始時間から終了時間までの音声を削除又は別の音声に置換するステップと、削除又は置換後の音声データを音声データ記憶手段に記憶させるステップとを含むことを特徴とする。
また、音声情報加工方法は、顧客とオペレータとの会話の音声を含む音声データのうちの秘密情報が含まれる範囲を指定するステップと、入力した音声データのうち、指定した範囲の音声を音声認識するステップとを含むものであってもよい。そのような構成によれば、音声データ中の秘密情報に該当する部分を、より的確に削除又は別の音声に置換することができる。従って、音声を検索し再生したときであっても秘密情報を秘匿することができ、秘密情報の漏洩をより高精度に防止することができる。
また、音声情報加工方法は、オペレータと顧客との通話中に、ユーザの操作に従って音声データ中の秘密情報が含まれる範囲を指定し、又は、オペレータと顧客との通話が終了した後に、通話を録音した音声データに対して、ユーザの操作に従って秘密情報が含まれる範囲を指定するものであってもよい。そのような構成によれば、オペレータが顧客との会話中に顧客の個人情報等の秘密情報が出現したことを指示することによって、音声データ中の秘密情報に該当する部分を、より的確に削除又は別の音声に置換することができる。
また、音声情報加工方法は、顧客とオペレータとの会話中に、逐次顧客とオペレータとの通話の音声データを入力して音声認識し、又は、通話の音声を録音する通話録音装置が蓄積する音声データを入力して音声認識するものであってもよい。
また、音声情報加工方法は、顧客とオペレータとの通話内容を書き起こしたテキストデータである書き起こしテキストを記録するステップと、書き起こしテキスト中の検出したキーワード又はキーワードの出現パターンの出現位置に対応する部分の文字列を、削除又は別の文字列に置換するステップとを含むものであってもよい。そのような構成によれば、書き起こしテキストを検索した場合であっても、秘密情報の漏洩を防止することができる。
本発明による音声情報蓄積方法は、音声データを加工し、加工した音声データを蓄積する音声情報蓄積方法であって、処理対象の音声データを入力し、入力した音声データを音声認識してテキストデータに変換するステップと、変換したテキストデータ中の文字列位置と音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成するステップと、所定のキーワード又はキーワードの出現パターンを示す出現パターン情報を記憶するステップと、音声認識結果に基づいて、記憶したキーワード又は出現パターン情報に示される出現パターンが、音声データ中に出現する出現位置を検出するステップと、検出した音声データ中の出現位置の箇所の先頭部分に対応する時間を時間対応テーブルから開始時間として抽出するとともに、検出した音声データ中の出現位置の箇所の末尾部分に対応する時間を時間対応テーブルから終了時間として抽出するステップと、音声データ中の開始時間から終了時間までの音声を削除又は別の音声に置換するステップと、削除又は置換後の音声データを音声データ記憶手段に記憶させるステップとを含むことを特徴とする。
また、音声情報蓄積方法は、蓄積する音声データを検索し、加工後の音声データを抽出するステップと、抽出した音声データに基づいて、加工後の音声を再生するステップとを含むものであってもよい。そのような構成によれば、記録する音声データを検索し再生した場合であっても、秘密情報の漏洩を防止することができる。
また、音声情報蓄積方法は、顧客とオペレータとの会話の音声を含む音声データのうちの秘密情報が含まれる範囲を指定するステップと、入力した音声データのうち、指定した範囲の音声を認識するステップとを含むものであってもよい。そのような構成によれば、音声データ中の秘密情報に該当する部分を、より的確に削除又は別の音声に置換することができる。従って、音声を検索し再生したときであっても秘密情報を秘匿することができ、秘密情報の漏洩をより高精度に防止することができる。
また、音声情報蓄積方法は、オペレータと顧客との通話中に、ユーザの操作に従って音声データ中の秘密情報が含まれる範囲を指定し、又は、オペレータと顧客との通話が終了した後に、通話を録音した音声データに対して、ユーザの操作に従って秘密情報が含まれる範囲を指定するものであってもよい。そのような構成によれば、オペレータが顧客との会話中に顧客の個人情報等の秘密情報が出現したことを指示することによって、音声データ中の秘密情報に該当する部分を、より的確に削除又は別の音声に置換することができる。
また、音声情報蓄積方法は、顧客とオペレータとの通話中に、逐次顧客とオペレータとの通話の音声データを入力して音声認識し、又は、通話の音声を録音する通話録音装置が蓄積する音声データを入力して音声認識するものであってもよい。
また、音声情報蓄積方法は、顧客とオペレータとの通話内容を書き起こしたテキストデータである書き起こしテキストを記録するステップと、書き起こしテキスト中の検出したキーワード又はキーワードの出現パターンの出現位置に対応する部分の文字列を、削除又は別の文字列に置換するステップとを含むものであってもよい。そのような構成によれば、書き起こしテキストを検索した場合であっても、秘密情報の漏洩を防止することができる。
本発明による音声情報加工プログラムは、所定のキーワード又はキーワードの出現パターンを示す出現パターン情報を記憶する記憶手段(例えば、キーワード記憶装置302によって実現される)を備えたコンピュータに、顧客とオペレータとの会話の音声を含む音声データを入力し、入力した音声データを音声認識してテキストデータに変換する処理と、変換したテキストデータ中の文字列位置と音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成する処理と、音声認識結果に基づいて、記憶手段が記憶するキーワード又は出現パターン情報に示される出現パターンが、音声データ中に出現する出現位置を検出する処理と、検出した音声データ中の出現位置の箇所の先頭部分に対応する時間を時間対応テーブルから開始時間として抽出するとともに、検出した音声データ中の出現位置の箇所の末尾部分に対応する時間を時間対応テーブルから終了時間として抽出する処理と、音声データ中の開始時間から終了時間までの音声を削除又は別の音声に置換する処理と、削除又は置換後の音声データを音声データ記憶手段に記憶させる処理とを実行させるためのものである。
また、音声情報加工プログラムは、コンピュータに、顧客とオペレータとの会話の音声を含む音声データのうちの秘密情報が含まれる範囲を指定する処理と、入力した音声データのうち、指定した範囲の音声を音声認識する処理とを実行させるものであってもよい。そのような構成によれば、音声データ中の秘密情報に該当する部分を、より的確に削除又は別の音声に置換することができる。従って、音声を検索し再生したときであっても秘密情報を秘匿することができ、秘密情報の漏洩をより高精度に防止することができる。
また、音声情報加工プログラムは、コンピュータに、オペレータと顧客との通話中に、ユーザの操作に従って音声データ中の秘密情報が含まれる範囲を指定する処理、又は、オペレータと顧客との通話が終了した後に、通話を録音した音声データに対して、ユーザの操作に従って秘密情報が含まれる範囲を指定する処理を実行させるものであってもよい。そのような構成によれば、オペレータが顧客との会話中に顧客の個人情報等の秘密情報が出現したことを指示することによって、音声データ中の秘密情報に該当する部分を、より的確に削除又は別の音声に置換することができる。
また、音声情報加工プログラムは、コンピュータに、顧客とオペレータとの会話中に、逐次顧客とオペレータとの通話の音声データを入力して音声認識する処理、又は、通話の音声を録音する通話録音装置が蓄積する音声データを入力して音声認識する処理を実行させるものであってもよい。
また、音声情報加工プログラムは、コンピュータに、顧客とオペレータとの通話内容を書き起こしたテキストデータである書き起こしテキストを記録する処理と、書き起こしテキスト中の検出したキーワード又はキーワードの出現パターンの出現位置に対応する部分の文字列を、削除又は別の文字列に置換する処理とを実行させるものであってもよい。そのような構成によれば、書き起こしテキストを検索した場合であっても、秘密情報の漏洩を防止することができる。
本発明によれば、処理対象の音声データ中の秘密情報に該当する箇所を特定する。そして、特定した秘密情報に該当する部分の音声を加工する。処理対象の音声データの秘密情報の箇所を自動的に加工できるので、会話音声を記録する場合に、顧客の個人情報等の秘密情報の漏洩を防止することができる。
実施の形態1.
以下、本発明の第1の形態を図面を参照して説明する。図1は、本発明による音声情報加工システムを適用したシステムの構成の一例を示すブロック図である。音声情報加工システムは、例えば、音声情報を関係部門で共有するための情報共有システムや、音声情報を蓄積する音声情報蓄積システム等の各種情報処理システムに適用される。本実施の形態では、一例として、顧客からの電話を受け付け顧客とオペレータとの通話の音声を記録し蓄積するコールセンタシステムに、音声情報加工システムを適用する場合を説明する。なお、音声情報加工システムは、コールセンタシステムに限らず、例えば、顧客からの電話やファクシミリ、電子メール等を受け付けるコンタクトセンタシステムに適用することも可能である。
図1に示すように、コールセンタシステムは、回線接続装置103、オペレータ端末201、通話録音装置202、検索端末203及び音声情報加工システム300を含む。また、音声情報加工システム300は、音声認識装置301、キーワード記憶装置302、位置検出装置303及び置換装置304を含む。また、コールセンタシステムは、図1に示すように、顧客端末101とネットワーク102を介して接続される。
顧客端末101は、顧客が使用する端末であり、具体的には、電話機や携帯電話機等の端末である。顧客端末101は、送話部から顧客の音声を入力し、音声データを電話網等のネットワーク102を介してコールセンタシステムに送信する機能を備える。また、顧客端末101は、コールセンタシステムからネットワーク102を介して音声データを受信し、音声を受話部から出力する機能を備える。
なお、顧客端末101は、電話機や携帯電話機に限らず、例えば、IP電話サービスを利用する場合、IP電話機やパーソナルコンピュータ等の端末であってもよい。この場合、顧客端末101は、例えば、インターネット等のネットワーク102を介して、音声データを送受信する。また、図1では、1つの顧客端末101を示しているが、コールセンタシステムは、複数の顧客端末101とネットワーク102を介して接続される。
回線接続装置103は、顧客からの電話の受付業務を行うコールセンタに設置され、具体的には、構内交換機(PBX)等の装置である。また、例えば、IP電話サービスを利用する場合、回線接続装置103は、VoIPに対応したルータやIP−PBX等の装置であってもよい。
回線接続装置103は、ネットワーク102を介して顧客端末101からの着信を受けると、顧客端末101とコールセンタシステムのいずれかのオペレータ端末201との回線を接続する機能を備える。また、回線接続装置103は、顧客端末101からネットワーク102を介して音声データ(顧客の音声)を受信し、受信した音声データをオペレータ端末201に出力する機能を備える。また、回線接続装置103は、オペレータ端末201から入力した音声データ(オペレータの音声)を、ネットワーク102を介して顧客端末101に送信する機能を備える。
また、回線接続装置103は、顧客とオペレータとの通話の音声を通話録音装置202に出力する機能を備える。この場合、回線接続装置103は、例えば、通話の音声データとともに、顧客とオペレータとの通話時刻や、顧客を識別するためのユーザID、オペレータを識別するためのオペレータIDを通話録音装置202に出力する。
オペレータ端末201は、コールセンタのオペレータが使用する端末であり、具体的には、電話機等の端末である。また、オペレータ端末201は、電話機に限らず、例えば、IP電話サービスを利用する場合、IP電話機やパーソナルコンピュータ等の端末であってもよい。また、図1では、1つのオペレータ端末201を示しているが、コールセンタシステムは、複数のオペレータ端末201を含む。
オペレータ端末201は、オペレータが顧客と会話するためのマイクロフォンとスピーカとを備える。例えば、オペレータ端末201は、マイクロフォンとスピーカとを有するヘッドセット等を備える。オペレータ端末201は、回線接続装置103から入力した音声データに基づいて、スピーカから音声を出力する機能を備える。また、オペレータ端末201は、マイクロフォンから音声を入力し、入力した音声データを回線接続装置103に出力する機能を備える。
通話録音装置202は、顧客とオペレータとの通話の音声データを蓄積するデータベースを備える。通話録音装置202は、回線接続装置103から顧客とオペレータとの通話の会話内容の音声データを入力し、入力した音声データをデータベースに蓄積する機能を備える。この場合、通話録音装置202は、例えば、音声データとともに、顧客とオペレータとの通話時刻や顧客のユーザID、オペレータIDを回線接続装置103から入力する。そして、通話録音装置202は、音声データに、通話時刻、ユーザID及びオペレータIDを対応付けてデータベースに蓄積する。
また、通話録音装置202は、検索端末203からの要求に従ってデータベースから音声データを抽出し、検索端末203に出力する機能を備える。この場合、通話録音装置202は、検索端末203から所定の検索条件を入力し、入力した検索条件に合致する音声データをデータベースから抽出する。例えば、通話録音装置202は、検索条件として通話時刻やユーザID、オペレータIDを入力し、入力した検索条件に対応する音声データをデータベースから抽出する。
なお、IP電話サービスを利用する場合、通話録音装置202は、例えば、データベースを備えたワークステーションやパーソナルコンピュータ等の情報処理装置であってもよい。この場合、例えば、コールセンタシステムにおいて、回線接続装置103、オペレータ端末201、通話録音装置202及び検索端末203が、LAN等の社内ネットワークを介して接続されていてもよい。そして、通話録音装置202は、顧客とオペレータとの通話の音声データをLANを介してオペレータ端末201や回線接続装置103から受信し、受信した音声データをデータベースに蓄積するようにしてもよい。
検索端末203は、具体的には、パーソナルコンピュータ等の情報処理端末である。検索装置203は、与えられた所定の検索条件に従って、通話録音装置202が蓄積する音声データを検索し抽出する機能を備える。この場合、例えば、検索端末203は、オペレータの入力操作に従って、所定の検索条件を入力する。また、検索端末203は、入力した検索条件を通話録音装置202に出力し、音声データの検索を要求する。通話録音装置202が音声データを検索すると、検索端末203は、通話録音装置202から検索結果として音声データを入力する。
また、検索端末203は、抽出した音声データに基づいて、顧客とオペレータとの会話の音声を再生する機能を備える。例えば、検索端末203は、オペレータの入力指示に従って、指示された音声データを通話録音装置202から抽出し再生する。
なお、検索端末203は、パーソナルコンピュータに限らず、携帯電話機等の移動端末(例えば、外出中の営業員が使用する端末)であってもよい。例えば、携帯電話機である検索端末203は、営業員の操作に従って所定の検索条件を入力し、検索条件をネットワーク102及び回線接続装置103を介して通話録音装置202に送信して、音声データの検索を要求する。そして、検索端末203は、音声データをネットワーク102及び回線接続装置103を介して通話録音装置202から受信し、受信した音声データに基づいて音声を再生する。
また、図1では、1つの検索端末203を示しているが、コールセンタシステムは、複数の検索端末203を含んでいてもよい。例えば、コールセンタシステムは、オペレータ毎に検索端末203を含んでいてもよい。
音声認識装置301は、具体的には、プログラムに従って動作するサーバのCPU及び入出力インタフェース部によって実現される。音声認識装置301は、通話録音装置202から入力した音声データを音声認識し、音声データをテキストデータに変換する機能を備える。また、音声認識装置301は、音声認識の結果として、変換したテキストデータを検出装置303に出力する機能を備える。
また、音声認識装置301は、変換したテキストデータ中の各文字列位置と、音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成する機能を備える。すなわち、音声認識装置301は、テキストデータ中の各文字列位置が音声データ中のどの箇所に対応するかを示す時間対応テーブルを生成する。また、音声認識装置301は、生成した時間対応テーブルを、検出装置303又は置換装置304に出力する機能を備える。
キーワード記憶装置302は、具体的には、磁気ディスク装置等の記憶装置によって実現される。キーワード記憶装置302は、テキストに含まれる秘密情報の箇所を特定するための秘密箇所特定情報を予め記憶する。本実施の形態では、キーワード記憶装置302は、秘密箇所特定情報として、秘密情報に該当するキーワードや、テキスト中における秘密情報の出現パターンを示す出現パターン情報を予め記憶している。
例えば、キーワード記憶装置302は、コールセンタにユーザ登録されている顧客名や顧客住所、顧客の電話番号を、キーワードとして予め記憶している。また、例えば、キーワード記憶装置302は、テキスト中における顧客名の出現パターンとして「名前は<単語列>」や、顧客の住所の出現パターンとして「住所は<単語列>」、顧客の電話番号の出現パターンとして「電話番号は<数字列>」を予め記憶している。
検出装置303は、具体的には、プログラムに従って動作するサーバのCPUによって実現される。検出装置303は、音声認識装置301から入力したテキストデータ、及びキーワード記憶装置302が記憶する秘密箇所特定情報に基づいて、顧客とオペレータとの会話中の秘密情報の箇所の出現位置を検出する機能を備える。また、検出装置303は、検出した秘密情報の箇所の位置を示す秘密箇所位置情報を生成し、生成した秘密箇所位置情報を置換装置304に出力する機能を備える。
本実施の形態では、検出装置303は、キーワード記憶装置302からキーワードや出現パターン情報を受け取り、キーワードや出現パターンが音声認識装置301から入力した認識結果のテキスト中に出現する位置を検出する。この場合、検出装置303は、キーワード及び出現パターン情報に基づいて、テキストに含まれる秘密情報の箇所を検出する。そして、検出装置303は、秘密箇所位置情報として、検出した秘密情報の文字列のテキスト中での位置を示す位置情報(例えば、テキスト中での行や列を示す情報)を生成し、生成した秘密箇所位置情報を置換装置304に出力する。
また、検出装置303は、検出した秘密情報の文字列の位置を、その秘密情報が出現する音声データ中における時間に変換した秘密箇所位置情報を生成するようにしてもよい。この場合、検出装置303は、音声認識装置301から、テキストデータとともに時間対応テーブルを入力する。また、検出装置303は、キーワード記憶装置302が記憶するキーワードや出現パターン情報に基づいて、テキストに含まれる秘密情報の箇所を検出する。また、検出装置303は、時間対応テーブルに基づいて、検出した秘密情報の箇所の先頭部分及び末尾部分をそれぞれ対応する時間に変換する。そして、検出装置303は、秘密箇所位置情報として、秘密情報の箇所の先頭部分に対応する時間を秘密情報の開始時間、及び末尾部分に対応する時間を秘密情報の終了時間として含む時間情報を生成する。
置換装置304は、具体的には、プログラムに従って動作するサーバのCPU及び入出力インタフェース部によって実現される。置換装置304は、検出装置303から入力した秘密箇所位置情報に基づいて、通話録音装置202が記憶する音声データ中の秘密情報の箇所の音声を加工する機能を備える。また、置換装置304は、通話録音装置202に、記憶する音声データを加工後の音声データに更新させる機能を備える。
本実施の形態では、置換装置304は、検出装置303から受け取った秘密箇所位置情報を用いて、通話録音装置202が記録する音声データ中の秘密情報の部分を特定する。そして、置換装置304は、特定した箇所の音声を削除したり別の音声に置換したりすることによって音声データを加工する。
例えば、置換装置304は、秘密情報の箇所の開始時間及び終了時間を含む秘密箇所位置情報を、検出装置303から入力する。そして、置換装置304は、通話録音装置202が記録する音声データのうち、秘密箇所位置情報に示される開始時間から終了時間までの音声を削除又は別の音声に置換する。
また、例えば、置換装置304は、テキスト中での秘密情報の文字列の位置情報を含む秘密箇所位置情報を入力する。この場合、置換装置304は、音声認識装置301から時間対応テーブルを入力する。また、置換装置304は、時間対応テーブルに基づいて、秘密箇所位置情報に示される秘密情報の箇所の先頭部分及び末尾部分を、それぞれ対応する時間に変換する。すなわち、置換装置304は、時間対応テーブルに基づいて、秘密情報の箇所の開始時間及び終了時間を求める。そして、置換装置304は、通話録音装置202が記録する音声データのうち、変換した開始時間から終了時間までの音声を削除又は別の音声に置換する。
なお、通話録音装置202は、置換装置304の更新指示に従って音声データを更新するのでなく、加工前の音声データを保持しつつ、置換装置304が生成した加工後の音声データを新たにデータベースに記憶するようにしてもよい。
また、本実施の形態において、音声情報加工システム300を実現するサーバの記憶装置は、秘密情報を含む音声データを加工するための各種プログラムを記憶している。例えば、サーバの記憶装置は、コンピュータに、顧客とオペレータとの会話の音声を含む音声データを入力し、入力した音声データを音声認識する処理と、音声認識結果に基づいて、記憶手段が記憶するキーワード又は出現パターン情報に示される出現パターンが、音声データ中に出現する出現位置を検出する処理と、検出した音声データ中の出現位置に対応する部分の音声を削除又は別の音声に置換する処理とを実行させるための音声情報加工プログラムを記憶している。
また、本実施の形態では、オペレータと顧客との会話の音声を一旦通話録音装置202に蓄積したのち音声認識装置301に入力し音声データを加工する場合を説明するが、蓄積した音声データを加工する手順は、本実施の形態で示す場合に限られない。例えば、別の形態として、オペレータと顧客との会話の音声を通話録音装置202を介さずに直接音声認識装置301に入力し、音声データを加工するようにしてもよい。
次に、動作について説明する。図2は、コールセンタシステムが顧客端末101からの着信を受け付け、顧客とオペレータとの通話の音声を録音する通話録音処理の一例を示す流れ図である。顧客は、商品やサービスの内容等についてコールセンタに問い合わせたい場合、顧客端末101を操作してコールセンタの電話番号を入力し発信指示を行う。顧客端末101は、顧客の入力指示に従って、ネットワーク102を介してコールセンタに発信する。
顧客端末101の電話発信は、ネットワーク102を通して回線接続装置103によって受け付けられる。回線接続装置103は、ネットワーク102を介して顧客端末101からの着信を受け付ける(ステップS101)。回線接続装置103は、着信を受け付けると、顧客端末101とオペレータ端末201との回線を接続する。顧客端末101とオペレータ端末201との回線が回線接続装置103を介して接続されることによって、顧客とオペレータとが会話できる状態になる。
また、回線接続装置103は、顧客とオペレータとの会話の音声の通話録音装置202への出力を開始する。すると、通話録音装置202は、顧客とオペレータとの会話の音声の録音を開始する(ステップS102)。
なお、回線接続装置103は、顧客とオペレータとの会話の音声を出力するとともに、顧客とオペレータとの通話時刻や顧客のユーザID、オペレータIDを通話録音装置202に出力する。そして、通話録音装置202は、入力した音声データを、通話時刻やユーザID、オペレータIDに対応付けてデータベースに記憶する。
通話録音装置202は、顧客とオペレータとの通話中、会話内容の音声を記録する。また、通話録音装置202は、記録する音声データを音声情報加工システム300に出力する。音声情報加工システム300は、通話録音装置202が記録する音声データ中の秘密情報の箇所を特定し、音声データを加工する(ステップS103)。
会話が終了すると、オペレータ又は顧客は、受話器を置いて電話を切る。すると、回線接続装置103は、顧客とオペレータとの終話を検出し、顧客端末101とオペレータ端末201との間の通信を切断する。また、通話録音装置202は、顧客とオペレータとの通話の録音を終了する(ステップS104)。
次に、顧客とオペレータとの会話中に、記録した音声データ中の秘密情報の箇所を特定し、音声データを加工する動作を説明する。図3は、図2のステップS103において、記録した音声データ中の秘密情報の箇所を特定し、音声データを加工する音声情報加工処理の一例を示す流れ図である。
通話録音装置202は、顧客とオペレータとの会話の音声を記録し、記録した音声データを音声情報加工システム300に出力する。この場合、通話録音装置202は、回線接続装置103から入力した音声をデータベースに記憶させつつ、入力した音声を随時音声情報加工システム300に出力する。
なお、通話録音装置202は、顧客とオペレータとの会話の音声を、所定時間単位の音声データに分割し所定時間毎に音声情報加工システム300に出力してもよい。また、通話録音装置202は、顧客とオペレータとの会話の音声の区切れ部分(例えば、所定時間以上音声が途切れた部分)を検出し、区切れ部分毎に音声データを分割し音声情報加工システム300に出力してもよい。また、通話録音装置202は、通話開始から通話終了までの間の顧客とオペレータとの会話の音声を記録し終えた後に、記録した音声データを一括して音声情報加工システム300に出力するようにしてもよい。
音声認識装置301は、通話録音装置202から音声データを入力する。また、音声認識装置301は、入力した音声データを音声認識しテキストデータに変換する(ステップS201)。そして、音声認識装置301は、音声認識結果として、変換したテキストデータを検出装置303に出力する。
また、音声認識装置301は、テキストデータを生成するとともに、変換したテキストデータ中の各文字列位置と、音声データを再生した場合における再生時間との対応付けを行う。また、音声認識装置301は、テキストデータ中の各文字列位置が音声データ中のどの箇所に対応するかを示す時間対応テーブルを生成する。そして、音声認識装置301は、生成した時間対応テーブルを検出装置303に出力する。なお、音声認識装置301は、生成した時間対応テーブルを置換装置304に出力してもよい。
検出装置303は、音声認識装置301からテキストデータを入力すると、キーワード記憶装置302が記憶する秘密箇所特定情報に基づいて、テキストデータ中の秘密情報の箇所を特定する。この場合、例えば、音声認識結果としてテキストデータを入力すると、検出装置303は、キーワード記憶装置302からキーワードやキーワード出現パターンの情報を受け取る。また、検出装置303は、それらキーワードやキーワード出現パターンが、音声認識結果のテキスト中のどの位置に出現するのかを検出する。
また、検出装置303は、音声認識装置301から、テキストデータとともに時間対応テーブルを入力する。検出装置303は、時間対応テーブルに基づいて、検出した秘密情報の箇所の音声データにおける開始時間及び終了時間を求める。そして、検出装置303は、秘密情報の箇所の開始時間及び終了時間を含む秘密箇所位置情報を生成する。また、検出装置303は、生成した秘密情報の出現位置を示す秘密箇所位置情報を、置換装置304に出力する(ステップS202)。
なお、ステップS202において、検出装置303は、検出した秘密情報のテキスト中での文字列の位置情報(例えば、テキスト中での行や列)をそのまま含む秘密箇所位置情報を生成し、生成した秘密箇所位置情報を置換装置304に出力してもよい。
置換装置304は、検出装置303から入力した秘密箇所位置情報に基づいて、通話録音装置202が記録する音声データを加工する。この場合、置換装置304は、通話録音装置202が記録する音声データのうち、検出装置303から入力した秘密箇所位置情報に示される箇所を所定の方法で加工する。
本実施の形態では、置換装置304は、通話録音装置202が蓄積する音声データのキーワード出現位置に該当する部分の音声を削除したり別の音声データに置換したりして、音声データを加工する(ステップS203)。この場合、例えば、置換装置304は、通話録音装置202が記録する音声データのうち、秘密箇所位置情報に示される開始時間から終了時間までの音声を削除又は別の音声に置換する。
また、例えば、置換装置304は、検出装置303から秘密箇所位置情報を入力するとともに、音声認識装置301から時間対応テーブルを入力する。また、置換装置304は、入力した時間対応テーブルに基づいて、秘密情報の箇所の音声データ中での開始時間及び終了時間を求める。そして、置換装置304は、通話録音装置202が記録する音声データのうち、求めた開始時間から終了時間までの音声を削除又は別の音声に置換する。
置換装置304は、通話録音装置202に、記録する音声データを加工後の音声データに更新させる。通話録音装置202は、置換装置304の更新指示に従って、記録する音声データを加工後の音声データに更新する。
例えば、通話録音装置202は、顧客とオペレータとの会話中に、顧客とオペレータとの音声を記録しつつ、置換装置304の更新指示に従って、記録中の音声データを随時更新する。また、例えば、通話録音装置202は、音声を所定時間単位の音声データに分割して記録する場合、記録した所定時間単位の音声データを随時更新するようにしてもよい。また、通話録音装置202は、音声を区切れ部分毎に分割した音声データとして記録する場合、区切れ部分毎に記録した音声データを随時更新するようにしてもよい。また、通話録音装置202は、顧客とオペレータとの会話の音声を記録し終えた後に、置換装置304の指示に従って音声データを一括して更新してもよい。また、通話録音装置202は、記録する音声データを更新するのではなく、加工前の音声データをそのまま保持しつつ、置換装置304が加工した音声データを新たにデータベースに記録してもよい。
以上のように、音声情報加工システム300は、オペレータと顧客との会話の通話録音が終了するまで、ステップS201からステップS203までの処理を繰り返し実行し音声データを加工する。
なお、本実施の形態では、オペレータと顧客との会話の音声を一旦通話録音装置202に記録して音声認識装置301に出力する場合を説明したが、オペレータと顧客との会話の音声を通話録音装置202を介さずに直接音声認識装置301に入力するようにしてもよい。この場合、ステップS201において、通話録音装置202がオペレータと顧客との会話の音声を記録するとともに、音声認識装置301がオペレータと顧客との会話の音声を通話録音装置202を介さずに回線接続装置103から直接入力する。そして、音声情報加工システム300は、図3に示すステップS201からステップS203までの処理を行い、通話録音装置202が記録する音声データを加工する。
また、本実施の形態では、顧客とオペレータとの会話中に、図3に示すステップS201からステップS203までの処理を随時実行し音声データを加工する場合を説明したが、音声情報加工システム300は、オペレータと顧客との会話が終了した後に音声データを一括して加工するようにしてもよい。この場合、顧客とオペレータとの会話音声の記録後に、例えば、音声情報加工システム300は、所定のタイミングで、通話録音装置202が蓄積する音声データに対して、音声データの加工を順次実行するようにしてもよい。
次に、通話録音装置202が蓄積する音声データを検索して利用する場合の動作を説明する。オペレータは、通話録音装置202が蓄積する音声データを検索し利用したい場合、検索端末203を操作して音声データの検索要求を入力指示する。検索装置203は、図2に示すステップS101からステップS104までのフローとは独立に動作し、与えられた所定の検索条件に従って通話録音装置202が記憶する音声データを検索し抽出する。
例えば、検索端末203は、オペレータの指示操作に従って、所定の検索条件を入力する。この場合、例えば、検索端末203は、検索条件として、顧客とオペレータとの通話時刻や顧客のユーザID、オペレータIDを入力する。そして、検索端末203は、入力した検索条件を通話録音装置202に出力し、音声データの検索を要求する。
通話録音装置202は、検索端末203から入力した検索条件に従ってデータベースを検索し、検索条件に合致する音声データを抽出する。そして、通話録音装置202は、抽出した音声データを検索端末203に出力する。
検索端末203は、通話録音装置202から音声データを入力すると、入力した音声データに基づいて、顧客とオペレータとの会話の音声を再生する。この場合、検索端末203は、入力した加工後の音声データに基づいて、顧客の秘密情報の箇所が置換(又は、削除)された音声を出力する。検索端末203において、秘密情報の箇所を加工した音声が出力されるので、顧客の個人情報等の漏洩を防止することができる。
以上のように、本実施の形態によれば、音声情報加工システム300は、通話録音装置202が記録する音声データ中の顧客の個人情報等の秘密情報に該当する箇所を特定する。そして、音声情報加工システム300は、特定した秘密情報に該当する部分の音声を削除又は別の音声に置換して音声データを加工する。記録する音声データの秘密情報の箇所を自動的に加工できるので、検索装置203から通話録音装置202が蓄積する音声を検索し再生したときであっても秘密情報を秘匿することができる。従って、会話音声を記録する場合に、顧客の個人情報等の秘密情報の漏洩を防止することができる。特に、顧客からの問い合わせ内容の会話をデータベース化して関係部署間で情報共有する場合であっても、顧客の秘密情報の漏洩を防止することができる。また、秘密情報の漏洩を防止しつつ、共有情報を利用して商品やサービスを改善したり顧客満足度を向上させたりすることができる。
実施の形態2.
次に、本発明の第2の実施の形態を図面を参照して説明する。図4は、音声情報加工システムを適用したシステムの他の構成例を示すブロック図である。図4に示すように、本実施の形態では、コールセンタシステムは、回線接続装置103、オペレータ端末201、通話録音装置202、検索端末203及び音声情報加工システム300を含む。また、音声情報加工システム300は、音声認識装置301A、キーワード記憶装置302、位置検出装置303、置換装置304及び位置指定装置306を含む。また、コールセンタシステムは、図4に示すように、顧客端末101とネットワーク102を介して接続される。
本実施の形態では、図1で示した構成要素に加えて、音声情報加工システム300が位置指定装置306を含む点で、第1の実施の形態と異なる。また、本実施の形態では、音声情報加工システム300の音声認識装置301Aの機能が、第1の実施の形態で示した音声認識装置301の機能と異なる。なお、本実施の形態において、顧客端末101、回線接続装置103、オペレータ端末201、通話録音装置202及び検索端末203の基本的な機能は、第1の実施の形態におけるそれらの機能と同様である。また、音声情報加工システム300において、キーワード記憶装置302、検出装置303及び置換装置304の基本的な機能は、第1の実施の形態におけるそれらの機能と同様である。
顧客端末101は、音声データをネットワーク102を介してコールセンタシステムと送受信する機能を備える。回線接続装置103は、ネットワーク102を介して顧客端末101とオペレータ端末201との回線を接続する機能を備える。オペレータ端末201は、オペレータが顧客と会話するためのマイクロフォンとスピーカと有するヘッドセット等を備え、音声データを送受信する機能を備える。通話録音装置202は、顧客とオペレータとの会話内容を録音し蓄積する機能を備える。検索装置203は、与えられた所定の検索条件に従って、通話録音装置1202に蓄積された音声を検索し再生する機能を備える。
位置指定装置306は、具体的には、プログラムに従って動作するサーバのCPU、及びキーボードやマウス等の入力装置によって実現される。位置指定装置306は、顧客とオペレータとの会話の音声を含む音声データのうちの秘密情報が含まれる範囲を指定する機能を備える。本実施の形態では、位置指定装置306は、オペレータの操作に従って、顧客の個人情報等の秘密情報が会話中に出現した旨を指示入力する。なお、位置指定装置306は、コールセンタシステムの管理者等のオペレータ以外のユーザの操作に従って、秘密情報が会話中に出現した旨を指示入力してもよい。また、位置指定装置306は、秘密情報が出現した旨を指示入力すると、通話録音装置202に、記録する音声データ中の指示入力された秘密情報の出現位置を記録させる機能を備える。
なお、図4では、1つの位置指定装置306を示しているが、音声情報加工システム300は、複数の位置指定装置306を含んでいてもよい。例えば、音声情報加工システム300は、オペレータ毎に、パーソナルコンピュータ等の情報処理端末である位置指定装置306を含んでいてもよい。
音声認識装置301Aは、通話録音装置202から入力した音声データを音声認識し、音声データをテキストデータに変換する機能を備える。また、音声認識装置301Aは、音声認識の結果として、変換したテキストデータを検出装置303に出力する機能を備える。
本実施の形態では、音声認識装置301Aは、通話録音装置202が記録する音声データを全て音声認識するのでなく、音声データのうち、位置指定装置306の指示に従って記録された秘密情報の出現位置の前後一定の区間の音声だけを、音声認識してテキストデータに変換する。すなわち、音声認識装置301Aは、通話録音装置202から入力した音声データのうち、位置指定装置306が指定した範囲の音声を音声認識する。そして、音声認識装置301Aは、認識結果として、音声認識した区間のテキストデータを検出装置303に出力する。また、音声認識装置301Aは、時間対応テーブルを生成し、生成した時間対応テーブルを検出装置303又は置換装置304に出力する機能を備える。
キーワード記憶装置302は、秘密情報に該当するキーワード又は秘密情報の出現パターン情報を予め記憶している。検出装置303は、キーワード記憶装置302からキーワードや出現パターンを受け取り、それらキーワードや出現パターンが、音声認識装置301から入力した認識結果のテキスト中に出現する位置を検出する機能を備える。また、検出装置303は、その検出した秘密情報の秘密箇所位置情報を置換装置304に出力する機能を備える。置換装置304は、秘密箇所位置情報を用いて、通話録音装置202が記録する音声の秘密情報の部分の音声を削除又は別の音声データに置換して加工する機能を備える。
また、本実施の形態では、オペレータと顧客との会話の音声を一旦通話録音装置202に蓄積したのち音声認識装置301Aに入力し音声データを加工する場合を説明するが、蓄積した音声データを加工する手順は、本実施の形態で示す場合に限られない。例えば、別の形態として、オペレータと顧客との会話の音声を通話録音装置202を介さずに直接音声認識装置301Aに入力し、音声データを加工するようにしてもよい。この場合、位置指定装置306は、音声認識装置301Aに、直接入力する音声データに対して、オペレータによって指示された出現位置を記録させる。
次に、動作について説明する。図5は、コールセンタシステムが顧客端末101からの着信を受け付け、顧客とオペレータとの通話の音声を録音する通話録音処理の他の例を示す流れ図である。顧客は、商品やサービスの内容等についてコールセンタに問い合わせたい場合、顧客端末101を操作してコールセンタの電話番号を入力し発信指示を行う。顧客端末101は、顧客の入力指示に従って、ネットワーク102を介してコールセンタに発信する。
顧客端末101の電話発信は、ネットワーク102を通して回線接続装置103によって受け付けられる。回線接続装置103は、ネットワーク102を介して顧客端末101からの着信を受け付ける(ステップS101)。回線接続装置103は、着信を受け付けると、顧客端末101とオペレータ端末201との回線を接続する。顧客端末101とオペレータ端末201との回線が回線接続装置103を介して接続されることによって顧客とオペレータとが会話できる状態になる。
また、回線接続装置103は、顧客とオペレータとの会話の音声の通話録音装置202への出力を開始する。すると、通話録音装置202は、顧客とオペレータとの会話の音声の録音を開始する(ステップS102)。
通話録音装置202は、顧客とオペレータとの通話中、会話内容の音声を記録する。また、通話録音装置202は、記録する音声データを音声情報加工システム300に出力する。音声情報加工システム300は、通話録音装置202が記録する音声データ中の秘密情報の箇所を特定し、音声データを加工する(ステップS103A)。ステップS103Aにおいて、音声情報加工システム300は、オペレータによって指定された秘密情報の出現位置を通話録音装置202に記録させつつ、音声データ中の秘密情報の箇所を特定し音声データを加工する。
会話が終了すると、オペレータ又は顧客は、受話器を置いて電話を切る。すると、回線接続装置103は、顧客とオペレータとの会話の終話を検出し、顧客端末101とオペレータ端末201との間の通信を切断する。また、通話録音装置202は、顧客とオペレータとの通話の録音を終了する(S104)。
次に、顧客とオペレータとの会話中に、記録した音声データ中の秘密情報の箇所を特定し、音声データを加工する動作を説明する。図6は、図5のステップS103Aにおいて、記録した音声データ中の秘密情報の箇所を特定し、音声データを加工する音声情報加工処理の他の例を示す流れ図である。
オペレータは、顧客との通話中に顧客の個人情報等の秘密情報が会話に出現すると、位置指定装置306を操作して、秘密情報の出現位置の記録を入力指示する。位置指定装置306は、オペレータの入力指示に従って、通話録音装置202に、記録中の音声データに対して秘密情報の出現位置を記録させる(S200A)。例えば、オペレータは、顧客との会話中に、顧客の個人名や住所、電話番号等が話されると、位置指定装置306を操作して、顧客の秘密情報が会話中に話された旨を入力指示する。この場合、例えば、オペレータは、マウスクリック等によって、会話中に秘密情報が話された旨を入力指示する。すると、位置指定装置306は、通話録音装置202に、現時刻を秘密情報の出現位置として記録させる。
通話録音装置202は、位置指定装置306の指示に従って、記録中の音声データに秘密情報の出現位置を記録する。例えば、通話録音装置202は、記録中の音声データに、現時刻の位置が秘密情報の出現位置である旨の情報を付加する。
通話録音装置202は、顧客とオペレータとの会話の音声を記録し、記録した音声データを音声情報加工システム300に出力する。音声認識装置301Aは、通話録音装置202から音声データを入力する。この場合、音声認識装置301Aは、オペレータに指示された秘密情報の出現位置が記録された音声データを入力する。音声認識装置301Aは、入力した音声データのうち、記録された出現位置から前後所定の区間の箇所の音声を音声認識を行いテキストに変換する(ステップS201A)。そして、音声認識装置301Aは、出現位置から前後所定区間の箇所の音声を変換したテキストデータを、音声認識結果として出力する(S1201)。例えば、音声認識装置301Aは、記録された出現位置から前後所定時間分の区間の箇所の音声を音声認識し、テキストデータに変換する。
検出装置303は、音声認識装置301からテキストデータを入力すると、キーワード記憶装置302が記憶する秘密箇所特定情報に基づいて、テキストデータ中の秘密情報の箇所を特定する。この場合、例えば、音声認識結果としてテキストデータを入力すると、検出装置303は、キーワード記憶装置302からキーワードやキーワード出現パターンの情報を受け取る。また、検出装置303は、それらキーワードやキーワード出現パターンに基づいて、秘密情報が音声認識結果のテキスト中のどの位置に出現するのかを検出し(ステップS202)、秘密箇所位置情報を生成する。そして、検出装置303は、生成した秘密箇所位置情報を置換装置304に出力する。
置換装置304は、検出装置303から入力した秘密箇所位置情報に基づいて、通話録音装置202が記録する音声データを加工する。この場合、置換装置304は、通話録音装置202が記録する音声データのうち、検出装置303から入力した秘密箇所位置情報に示される箇所を所定の方法で加工する。本実施の形態では、置換装置304は、通話録音装置202が蓄積する音声データのキーワード出現位置に該当する部分の音声を削除したり別の音声データに置換したりして、音声データを加工する(ステップS203)。
以上のように、音声情報加工システム300は、オペレータと顧客との会話の通話録音が終了するまで、ステップS200AからステップS203までの処理を繰り返し実行し音声データを加工する。
なお、本実施の形態では、オペレータと顧客との会話の音声を一旦通話録音装置202に記録して音声認識装置301Aに出力する場合を説明したが、オペレータと顧客との会話の音声を通話録音装置202を介さずに直接音声認識装置301Aに入力するようにしてもよい。この場合、ステップS201Aにおいて、通話録音装置202がオペレータと顧客との会話の音声を記録するとともに、音声データが音声認識装置301に直接入力される。また、位置指定装置306は、音声認識装置301Aに、入力する音声に対してオペレータによって指示された出現位置を記録させる。なお、音声データを音声認識装置301Aに直接入力し、音声認識装置301Aに秘密情報の出現位置を記録させる処理以外は、図6に示すステップS200AからステップS203までの処理と同様である。
また、本実施の形態では、顧客とオペレータとの会話中に、図6に示すステップS200からステップS203までの処理を随時実行し音声データを加工する場合を説明したが、音声情報加工システム300は、オペレータと顧客との会話が終了した後に音声データを一括して加工するようにしてもよい。この場合、顧客とオペレータとの会話音声の記録後に、例えば、音声情報加工システム300は、所定のタイミングで、通話録音装置202が蓄積する音声データに対して、音声データの加工を順次実行するようにしてもよい。この場合、位置指定装置306は、オペレータの指示操作に従って、顧客との会話が終了した後に、通話録音装置202が蓄積する音声データを再生する。再生中の会話に秘密情報が出現すると、位置指定装置306は、オペレータの指示操作に従って、通話録音装置202に秘密情報の出現位置を記録させる。
次に、通話録音装置202が蓄積する音声データを検索して利用する場合の動作を説明する。オペレータは、通話録音装置202が蓄積する音声データを検索し利用したい場合、検索端末203を操作して音声データの検索要求を入力指示する。検索装置203は、図5に示すステップS101からステップS104までのフローとは独立に動作し、与えられた所定の検索条件に従って通話録音装置202が記憶する音声データを検索し再生する。
以上のように、本実施の形態によれば、オペレータが顧客との会話中に顧客の個人情報等の秘密情報が出現したことを指示する。そのため、音声情報加工システム300は、通話録音装置202が記録する音声データ中の顧客の個人情報等の秘密情報に該当する部分を、より的確に削除又は別の音声に置換することができる。従って、検索装置203から通話録音装置が蓄積する音声を検索し再生したときであっても秘密情報を秘匿することができ、秘密情報の漏洩をより高精度に防止することができる。
実施の形態3.
次に、本発明の第3の実施の形態を図面を参照して説明する。本実施の形態では、コールセンタシステムが、顧客とオペレータとの会話の音声データを蓄積するとともに、顧客とオペレータとの会話内容を書き起こして作成したテキストである書き起こしテキストを蓄積する場合を説明する。
図7は、音声情報加工システムを適用したシステムの更に他の構成例を示すブロック図である。図7に示すように、本実施の形態では、コールセンタシステムは、回線接続装置103、オペレータ端末201、通話録音装置202、検索端末203B、書起テキスト記録装置204及び書起装置205を含む。また、音声情報加工システム300は、音声認識装置301、キーワード記憶装置302、検出装置303、置換装置304及びテキスト置換装置305を含む。また、コールセンタシステムは、図7に示すように、顧客端末101とネットワーク102を介して接続される。
図7に示すように、本実施の形態では、図1で示した構成要素に加えて、コールセンタシステムが書起テキスト記録装置204及び書起装置205を含む点で、第1の実施の形態と異なる。また、本実施の形態では、図1で示した構成要素に加えて、音声情報加工システム300がテキスト置換装置305を含む点で、第1の実施の形態と異なる。また、本実施の形態では、コールセンタシステムにおいて、検索端末203Bの機能が、第1の実施の形態における検索端末203の機能と異なる。
なお、本実施の形態において、顧客端末101、回線接続装置103、オペレータ端末201及び通話録音装置202の基本的な機能は、第1の実施の形態におけるそれらの機能と同様である。また、音声情報加工システム300において、音声認識装置301、キーワード記憶装置302、検出装置303及び置換装置304の基本的な機能は、第1の実施の形態におけるそれらの機能と同様である。
書起装置205は、具体的には、パーソナルコンピュータ等の情報処理端末である。書起装置205は、テキスト作成用のアプリケーションソフトウェアを搭載し、テキストデータを生成する機能を備える。例えば、書起装置205は、テキストエディタやワードプロセッサを搭載し、ユーザの指示操作に従ってテキストデータを生成する。
本実施の形態では、書起装置205は、ユーザの操作に従って、顧客とオペレータとの会話内容の書き起こしテキストを作成する。例えば、書起装置205は、顧客とオペレータとの通話終了後に、オペレータの操作に従って、顧客とオペレータとの会話内容を再現したテキストデータを生成する。また、書起装置205は、例えば、テキストを作成するテキスト作成者の操作に従って、顧客とオペレータとの通話を視聴し再現したテキストデータを生成する。
なお、ユーザの指示操作に従ってテキストを作成する場合に限らず、書起装置205は、例えば、顧客とオペレータとの通話を記録した音声データを音声認識してテキストデータに変換し、変換したテキストデータを書き起こしテキストとして生成してもよい。また、例えば、書起装置205は、音声認識して変換したテキストデータを、更にユーザの操作に従って修正し書き起こしテキストとして生成してもよい。
書起テキスト記録装置204は、顧客とオペレータとの会話内容の書き起こしテキストを蓄積するデータベースを備える。書起テキスト記録装置204は、書起装置205から入力した会話音声の書き起こしテキストを記録し、データベースに記憶する機能を備える。
なお、IP電話サービスを利用する場合、書起テキスト記録装置204は、例えば、データベースを備えたワークステーションやパーソナルコンピュータ等の情報処理装置であってもよい。この場合、例えば、コールセンタシステムにおいて、回線接続装置103、オペレータ端末201、通話録音装置202、検索端末203、書起テキスト記録装置204及び書起装置205が、LAN等の社内ネットワークを介して接続されていてもよい。
また、書起テキスト記録装置204は、音声情報加工システム300に含まれるものであってもよい。この場合、書起テキスト記録装置204は、例えば、音声情報加工システム300を実現するサーバのCPU及び記憶装置によって実現される。そして、書起テキスト記録装置204は、書起装置205から書き起こしテキストを入力し、入力した書き起こしテキストを記録する。
テキスト置換装置305は、具体的には、プログラムに従って動作するサーバのCPU及び入出力インタフェース部によって実現される。テキスト置換装置305は、検出装置303から受け取った秘密箇所位置情報を用いて、テキスト置換装置305が記録する書き起こしテキスト中の秘密情報の部分の文字列を削除又は別の文字列に置換する機能を備える。また、テキスト置換装置305は、書起テキスト記録装置204に、記憶する書き起こしテキストを加工後のテキストに更新させる機能を備える。
なお、書起テキスト記録装置204は、テキスト置換装置305の更新指示に従って書き起こしテキストを更新するのでなく、加工前の書き起こしテキストを保持しつつ、書起テキスト記録装置204が生成した加工後のテキストデータを新たにデータベースに記憶するようにしてもよい。
検索端末203Bは、具体的には、パーソナルコンピュータ等の情報処理端末である。検索装置203Bは、与えられた所定の検索条件に従って、通話録音装置202が蓄積する音声データを検索して再生する機能を備える。また、本実施の形態では、更に、検索端末203Bは、所定の検索条件に従って、書起テキスト記録装置204が記録する書き起こしテキストを検索して表示する機能を備える。この場合、例えば、検索端末203Bは、オペレータの入力操作に従って、所定の検索条件を入力する。また、検索端末203Bは、入力した検索条件を書起テキスト記録装置204に出力し、書き起こしテキストの検索を要求する。書起テキスト記録装置204が書き起こしテキストを検索すると、検索端末203Bは、書起テキスト記録装置204から検索結果として書き起こしテキストを入力し、ディスプレイ装置等の表示装置に表示する。
次に、動作について説明する。本実施の形態において、コールセンタシステムは、第1の実施の形態と同様の処理に従って、顧客とオペレータとの通話の音声を記録している。また、本実施の形態において、音声情報加工システム300は、第1の実施の形態と同様の処理に従って、記録した音声データ中の秘密情報の箇所を特定し、音声データを加工している。
オペレータやテキスト作成者は、顧客とオペレータとの通話を終了すると、書起装置205を操作して、顧客とオペレータとの会話内容を書き起こした書き起こしテキストを作成指示する。書起装置205は、オペレータやテキスト作成者の操作に従って、書き起こしテキストを生成し書起テキスト記録装置204に出力する。また、書起テキスト記録装置204は、書起装置205から書き起こしテキストを入力しデータベースに蓄積する。
次に、記録した書き起こしテキスト中の秘密情報の箇所を特定し、書き起こしテキストを加工する動作を説明する。図8は、記録した書き起こしテキスト中の秘密情報の箇所を特定し、書き起こしテキストを加工する書き起こしテキスト加工処理の一例を示す流れ図である。
音声認識装置301は、通話録音装置202から音声データを入力する。また音声認識装置301は、入力した音声データを音声認識しテキストデータに変換する(ステップS201B)そして、音声認識装置301は、音声認識結果として、変換したテキストデータを検出装置303に出力する。
検出装置303は、音声認識結果としてテキストデータを入力するとともに、キーワード記憶装置302からキーワードやキーワード出現パターンの情報を入力する。また、検出装置303は、キーワードやキーワード出現パターンに基づいて、秘密情報が音声認識結果のテキスト中のどの位置に出現するのかを検出する。そして、検出装置303は、検出した秘密情報の出現位置を示す秘密箇所位置情報を、テキスト置換装置305に出力する(ステップS202B)。例えば、検出装置303は、秘密箇所位置情報として、検出した秘密情報の文字列のテキスト中での位置を示す位置情報(例えば、テキスト中での行や列)を生成し、テキスト置換装置305に出力する。
テキスト置換装置305は、検出装置303から入力した秘密箇所位置情報に基づいて、書起テキスト記録装置204が記録する書き起こしテキストを加工する。本実施の形態では、テキスト置換装置305は、書起テキスト記録装置204が蓄積する書き起こしテキストのキーワード出現位置に該当する部分の文字列を削除したり別の文字列に置換したりして、書き起こしテキストを加工する(ステップS203B)。
なお、本実施の形態では、書起装置205が作成した書き起こしテキストを書起テキスト記録装置204が蓄積する場合を説明したが、書起テキスト記録装置204は、書起装置205以外の装置が作成した書き起こしテキストを蓄積するものであってもよい。例えば、書起テキスト記録装置204は、音声認識装置301が変換したテキストデータを、そのまま書き起こしテキストとして蓄積してもよい。また、例えば、書起テキスト記録装置204は、音声認識装置301が変換したテキストデータをユーザの指示操作に従って修正したデータを、書き起こしテキストとして蓄積してもよい。
以上のように、本実施の形態によれば、音声情報加工システム300は、通話録音装置202が記録する音声データ中の秘密情報の箇所を加工して秘匿することに加えて、書起テキスト記録装置204が記録するテキスト中の秘密情報の箇所を加工して秘匿する。そのため、検索装置203Bから音声及び書き起こしテキストを検索した場合であっても、秘密情報の漏洩を防止することができる。
次に、本発明の具体的な実施例を図面を参照して説明する。なお、本実施例は、図1で示した第1の実施の形態を具体化したものに相当する。図9は、キーワード記憶装置302が記憶するキーワード及びキーワード出現パターンの情報の一例を示す説明図である。
本例では、キーワード記憶装置302は、図9に示すように、キーワードとして、コールセンタに予めユーザ登録されている顧客名及び顧客住所を記憶している。例えば、図9において、「日電太郎」、「山田花子」及び「鈴木次郎」は、顧客の個人名である。この顧客の個人名のリストは、例えば、コールセンタが備える顧客データベースから人名を取り出すことによって作成される。また、図9において、<住所>は、いずれかの顧客の住所を表す単語列である。この住所の単語列も、例えば、顧客データベースから住所を取り出すことによって作成される。
また、キーワード記憶装置302は、図9に示すように、顧客の電話番号の出現パターンとして、「電話番号は<数字列>」を記憶している。図9において、「電話番号は<数字列>」は、「電話番号」という単語とその単語につながる任意の数字列である。図9に示す出現パターンの例では、テキスト中に「電話番号は」の文字列が出現しその文字列の後に数字列が続いている場合、その「電話番号は」の後の数字列は顧客の電話番号であることを示している。
次に、音声情報加工システム300が音声データを加工する具体的な動作を説明する。本実施例では、音声情報加工システム300は、図9に示すキーワードや出現パターン情報を用いて音声データを加工する。また、図10は、オペレータと顧客との会話を記録した音声の内容の一例を示す説明図である。本実施例では、音声情報加工システム300が、通話録音装置202が記録する図10に示す内容の音声データを加工する場合を説明する。
通話録音装置202は、図10に示す会話内容の音声データを蓄積すると、記録する音声データを音声情報加工システム300の音声認識装置301に出力する。音声認識装置301は、通話録音装置202から入力した音声データを音声認識し、音声データをテキストデータに変換する。そして、音声認識装置301は、認識結果として変換したテキストデータを検出装置303に出力する。
検出装置303は、図9に示すキーワード及びキーワード出現パターンが認識結果のテキスト中に存在するか否かを判定する。図10に示す例では、検出装置303は、図9に示す顧客名のキーワードに基づいて、テキスト中の「山田花子」という単語を検出し、検出した「山田花子」の箇所の位置を示す秘密箇所位置情報を置換装置304に出力する。また、検出装置303は、図9に示す<住所>のキーワードに基づいて、テキスト中の「川崎市・・・」の単語列が住所を示すことを検出し、検出した住所の箇所の位置を示す秘密箇所位置情報を置換装置304に出力する。
なお、検出装置303は、テキスト中のある単語列が住所か否かを検出するために、住所を表現する辞書を用いて、テキスト中の単語列が住所であるか否かを判定するようにしてもよい。例えば、音声情報加工システム300は、「川崎市」や「東京都」等の地名を示す単語を含む地名辞書を記憶装置等に記憶している。そして、検出装置303は、地名辞書に基づいてテキスト中の各単語が地名であるか否かを判断することによって、テキスト中の単語列が住所であるか否かを判定する。
また、検出装置303は、図9に示す顧客の電話番号の出現パターンに基づいて、テキスト中の「電話番号は0441111234」の部分が「電話番号は<数字列>」という出現パターンに相当することを検出する。そして、検出装置303は、キーワードの検出の場合と同様に、検出した電話番号の出現パターンの箇所の位置を示す秘密箇所位置情報を置換装置304に出力する。
置換装置304は、検出装置303から受け取った秘密箇所位置情報に基づいて、通話録音装置202が記録する音声データ中の「山田花子」、「川崎市・・・」及び「電話番号は0441111234」の部分を加工する。図11は、図10に示す会話内容の音声データの加工後の内容の一例を示す説明図である。図11に示すように、置換装置304は、音声データ中の顧客名「山田花子」、顧客住所「川崎市・・・」及び顧客の電話番号「0441111234」の箇所を、例えば「ピー」という音声に置換する。そして、置換装置304は、通話録音装置202に、記録する音声データを加工後のデータに更新させる。
本発明は、コールセンタ等への顧客からの問い合わせ内容の音声データをデータベース化し、関係部署で共有することによって業務や顧客対応の改善を支援する用途に適用できる。特に、本発明による音声情報加工システムは、顧客の個人情報等の秘密情報の漏洩を防止する用途に適用できる。
本発明による音声情報加工システムを適用したシステムの構成の一例を示すブロック図である。 顧客とオペレータとの通話の音声を録音する通話録音処理の一例を示す流れ図である。 音声データを加工する音声情報加工処理の一例を示す流れ図である。 音声情報加工システムを適用したシステムの他の構成例を示すブロック図である。 顧客とオペレータとの通話の音声を録音する通話録音処理の他の例を示す流れ図である。 音声データを加工する音声情報加工処理の他の例を示す流れ図である。 音声情報加工システムを適用したシステムの更に他の構成例を示すブロック図である。 書き起こしテキストを加工する書き起こしテキスト加工処理の一例を示す流れ図である。 キーワード記憶装置302が記憶するキーワード情報の一例を示す説明図である。 顧客とオペレータとの会話の音声データの内容の一例を示す説明図である。 加工後の音声データの内容の一例を示す説明図である。
符号の説明
101 顧客端末
102 ネットワーク
103 回線接続装置
201 オペレータ端末
202 通話録音装置
203 検索端末
300 音声情報加工システム
301 音声認識装置
302 キーワード記憶装置
303 検出装置
304 置換装置

Claims (33)

  1. 処理対象の音声データを入力し、前記入力した処理対象の音声データを音声認識してテキストデータに変換する音声認識手段と、
    前記音声認識手段が変換したテキストデータ中の文字列位置と前記処理対象の音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成する対応テーブル生成手段と、
    テキストに含まれる秘密情報の箇所を特定するための秘密箇所特定情報を記憶する特定情報記憶手段と、
    前記特定情報記憶手段が記憶する秘密箇所特定情報、及び前記音声認識手段が変換したテキストデータに基づいて、前記処理対象の音声データに含まれる秘密情報の出現位置を検出する検出手段と、
    前記検出手段が検出した前記処理対象の音声データ中の秘密情報の箇所の先頭部分に対応する時間を前記時間対応テーブルから開始時間として抽出するとともに、前記検出手段が検出した前記処理対象の音声データ中の秘密情報の箇所の末尾部分に対応する時間を前記時間対応テーブルから終了時間として抽出する時間抽出手段と、
    前記処理対象の音声データ中の前記開始時間から前記終了時間までの音声を加工する音声加工手段と、
    前記音声加工手段による加工後の音声データを記憶する音声データ記憶手段とを
    備えたことを特徴とする音声情報加工システム。
  2. 特定情報記憶手段は、秘密箇所特定情報として、所定のキーワード又はテキスト中におけるキーワードの出現パターンを示す出現パターン情報を記憶し、
    検出手段は、前記特定情報記憶手段が記憶するキーワード又は出現パターン情報に示される出現パターンが、音声認識手段が変換したテキストデータに含まれるか否かを判断することによって、処理対象の音声データに含まれる秘密情報の出現位置を検出する
    請求項1記載の音声情報加工システム。
  3. 検出手段は、処理対象の音声データに含まれる秘密情報の出現位置を検出すると、前記検出した秘密情報の箇所の位置を示す秘密箇所位置情報を生成し、
    音声加工手段は、前記検出手段が生成した秘密箇所位置情報に基づいて、処理対象の音声データに含まれる秘密情報の箇所を特定し、前記特定した秘密情報の箇所の音声を加工する
    請求項1又は請求項2記載の音声情報加工システム。
  4. 出手段は、秘密箇所位置情報として、検出した秘密情報の文字列のテキスト中での位置を示す位置情報を生成し、
    音声加工手段は、対応テーブル生成手段が生成した時間対応テーブルに基づいて、前記検出手段が生成した秘密箇所位置情報に示される秘密情報の位置を対応する時間に変換することによって、処理対象の音声データにおける秘密情報の箇所を特定する
    請求項3記載の音声情報加工システム。
  5. 出手段は、秘密箇所位置情報として、対応テーブル生成手段が生成した時間対応テーブルに基づいて、検出した秘密情報の位置を対応する時間に変換した時間情報を生成する
    請求項3記載の音声情報加工システム。
  6. 音声加工手段は、検出手段の検出結果に基づいて、処理対象の音声データ中の秘密情報の出現位置に対応する部分の音声を削除又は別の音声に置換する請求項1から請求項5のうちのいずれか1項に記載の音声情報加工システム。
  7. 顧客とオペレータとの会話の音声を含む音声データを入力し、前記入力した音声データを音声認識してテキストデータに変換する音声認識手段と、
    前記音声認識手段が変換したテキストデータ中の文字列位置と前記音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成する対応テーブル生成手段と、
    所定のキーワード又はキーワードの出現パターンを示す出現パターン情報を記憶するキーワード記憶手段と、
    前記音声認識手段の音声認識結果に基づいて、前記キーワード記憶手段が記憶するキーワード又は出現パターン情報に示される出現パターンが、前記音声データ中に出現する出現位置を検出する検出手段と、
    前記検出手段が検出した前記音声データ中の出現位置の箇所の先頭部分に対応する時間を前記時間対応テーブルから開始時間として抽出するとともに、前記検出手段が検出した前記音声データ中の出現位置の箇所の末尾部分に対応する時間を前記時間対応テーブルから終了時間として抽出する時間抽出手段と、
    前記音声データ中の前記開始時間から前記終了時間までの音声を削除又は別の音声に置換する置換手段と、
    前記置換手段による削除又は置換後の音声データを記憶する音声データ記憶手段とを
    備えたことを特徴とする音声情報加工システム。
  8. 顧客とオペレータとの会話の音声を含む音声データのうちの秘密情報が含まれる範囲を指定する範囲指定手段を備え、
    音声認識手段は、入力した音声データのうち、前記範囲指定手段が指定した範囲の音声を音声認識する
    請求項7記載の音声情報加工システム。
  9. 範囲指定手段は、オペレータと顧客との通話中に、ユーザの操作に従って音声データ中の秘密情報が含まれる範囲を指定し、又は、オペレータと顧客との通話が終了した後に、通話を録音した音声データに対して、ユーザの操作に従って秘密情報が含まれる範囲を指定する請求項8記載の音声情報加工システム。
  10. 音声認識手段は、顧客とオペレータとの通話中に、逐次顧客とオペレータとの通話の音声データを入力して音声認識し、又は、通話の音声を録音する通話録音装置が蓄積する音声データを入力して音声認識する請求項7から請求項9のうちのいずれか1項に記載の音声情報加工システム。
  11. 顧客とオペレータとの通話内容を書き起こしたテキストデータである書き起こしテキストを記録する書起テキスト記録手段と、
    書き起こしテキスト中の検出手段が検出したキーワード又はキーワードの出現パターンの出現位置に対応する部分の文字列を、削除又は別の文字列に置換するテキスト置換手段とを備えた
    請求項7から請求項10のうちのいずれか1項に記載の音声情報加工システム。
  12. 音声データを加工し、前記加工した音声データを処理する情報処理システムであって、
    音声データを加工する音声情報加工システムを備え、
    前記音声情報加工システムは、
    処理対象の音声データを入力し、前記入力した音声データを音声認識してテキストデータに変換する音声認識手段と、
    前記音声認識手段が変換したテキストデータ中の文字列位置と前記音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成する対応テーブル生成手段と、
    所定のキーワード又はキーワードの出現パターンを示す出現パターン情報を記憶するキーワード記憶手段と、
    前記音声認識手段の音声認識結果に基づいて、前記キーワード記憶手段が記憶するキーワード又は出現パターン情報に示される出現パターンが、前記音声データ中に出現する出現位置を検出する検出手段と、
    前記検出手段が検出した前記音声データ中の出現位置の箇所の先頭部分に対応する時間を前記時間対応テーブルから開始時間として抽出するとともに、前記検出手段が検出した前記音声データ中の出現位置の箇所の末尾部分に対応する時間を前記時間対応テーブルから終了時間として抽出する時間抽出手段と、
    前記音声データ中の前記開始時間から前記終了時間までの音声を削除又は別の音声に置換する置換手段と、
    前記置換手段による削除又は置換後の音声データを記憶する音声データ記憶手段とを含む
    ことを特徴とする情報処理システム。
  13. オペレータ端末と、
    顧客端末とオペレータ端末との通信回線を接続する回線接続手段と、
    顧客とオペレータとの通話の音声を録音する通話録音手段と、
    前記通話録音手段が記録する音声データを検索し、音声データを再生する検索手段とを備え、
    前記通話録音手段は、置換手段の指示に従って、記録する音声データを加工後の音声データに更新し、
    前記検索手段は、前記通話録音装置が記録する加工後の音声データを抽出し、前記抽出した音声データに基づいて加工後の音声を再生する
    請求項12記載の情報処理システム。
  14. 音声情報加工システムは、
    顧客とオペレータとの会話の音声を含む音声データのうちの秘密情報が含まれる範囲を指定する範囲指定手段を含み、
    音声認識手段は、入力した音声データのうち、前記範囲指定手段が指定した範囲の音声を音声認識する
    請求項12又は請求項13記載の情報処理システム。
  15. 範囲指定手段は、オペレータと顧客との通話中に、ユーザの操作に従って音声データ中の秘密情報が含まれる範囲を指定し、又は、オペレータと顧客との通話が終了した後に、通話を録音した音声データに対して、ユーザの操作に従って秘密情報が含まれる範囲を指定する請求項14記載の情報処理システム。
  16. 音声認識手段は、顧客とオペレータとの通話中に、逐次顧客とオペレータとの通話の音声データを入力して音声認識し、又は、通話の音声を録音する通話録音装置が蓄積する音声データを入力して音声認識する請求項12から請求項15のうちのいずれか1項に記載の情報処理システム。
  17. 音声情報加工システムは、
    顧客とオペレータとの通話内容を書き起こしたテキストデータである書き起こしテキストを記録する書起テキスト記録手段と、
    書き起こしテキスト中の検出手段が検出したキーワード又はキーワードの出現パターンの出現位置に対応する部分の文字列を、削除又は別の文字列に置換するテキスト置換手段とを含む
    請求項12から請求項16のうちのいずれか1項に記載の情報処理システム。
  18. 顧客とオペレータとの会話の音声を含む音声データを入力し、前記入力した音声データを音声認識してテキストデータに変換するステップと、
    前記変換したテキストデータ中の文字列位置と前記音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成するステップと、
    所定のキーワード又はキーワードの出現パターンを示す出現パターン情報を記憶するステップと、
    前記音声認識結果に基づいて、前記記憶したキーワード又は出現パターン情報に示される出現パターンが、前記音声データ中に出現する出現位置を検出するステップと、
    前記検出した前記音声データ中の出現位置の箇所の先頭部分に対応する時間を前記時間対応テーブルから開始時間として抽出するとともに、前記検出した前記音声データ中の出現位置の箇所の末尾部分に対応する時間を前記時間対応テーブルから終了時間として抽出するステップと、
    前記音声データ中の前記開始時間から前記終了時間までの音声を削除又は別の音声に置換するステップと、
    前記削除又は置換後の音声データを音声データ記憶手段に記憶させるステップとを含む
    ことを特徴とする音声情報加工方法。
  19. 顧客とオペレータとの会話の音声を含む音声データのうちの秘密情報が含まれる範囲を指定するステップと、
    入力した音声データのうち、前記指定した範囲の音声を音声認識するステップとを含む
    請求項18記載の音声情報加工方法。
  20. オペレータと顧客との通話中に、ユーザの操作に従って音声データ中の秘密情報が含まれる範囲を指定し、又は、オペレータと顧客との通話が終了した後に、通話を録音した音声データに対して、ユーザの操作に従って秘密情報が含まれる範囲を指定する請求項19記載の音声情報加工方法。
  21. 顧客とオペレータとの会話中に、逐次顧客とオペレータとの通話の音声データを入力して音声認識し、又は、通話の音声を録音する通話録音装置が蓄積する音声データを入力して音声認識する請求項18から請求項20のうちのいずれか1項に記載の音声情報加工方法。
  22. 顧客とオペレータとの通話内容を書き起こしたテキストデータである書き起こしテキストを記録するステップと、
    書き起こしテキスト中の検出したキーワード又はキーワードの出現パターンの出現位置に対応する部分の文字列を、削除又は別の文字列に置換するステップとを含む
    請求項18から請求項21のうちのいずれか1項に記載の音声情報加工方法。
  23. 音声データを加工し、前記加工した音声データを蓄積する音声情報蓄積方法であって、
    処理対象の音声データを入力し、前記入力した音声データを音声認識してテキストデータに変換するステップと、
    前記変換したテキストデータ中の文字列位置と前記音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成するステップと、
    所定のキーワード又はキーワードの出現パターンを示す出現パターン情報を記憶するステップと、
    前記音声認識結果に基づいて、前記記憶したキーワード又は出現パターン情報に示される出現パターンが、前記音声データ中に出現する出現位置を検出するステップと、
    前記検出した前記音声データ中の出現位置の箇所の先頭部分に対応する時間を前記時間対応テーブルから開始時間として抽出するとともに、前記検出した前記音声データ中の出現位置の箇所の末尾部分に対応する時間を前記時間対応テーブルから終了時間として抽出するステップと、
    前記音声データ中の前記開始時間から前記終了時間までの音声を削除又は別の音声に置換するステップと、
    前記削除又は置換後の音声データを音声データ記憶手段に記憶させるステップとを含む
    ことを特徴とする音声情報蓄積方法。
  24. 蓄積する音声データを検索し、加工後の音声データを抽出するステップと、
    前記抽出した音声データに基づいて、加工後の音声を再生するステップとを含む
    請求項23記載の音声情報蓄積方法。
  25. 顧客とオペレータとの会話の音声を含む音声データのうちの秘密情報が含まれる範囲を指定するステップと、
    入力した音声データのうち、前記指定した範囲の音声を認識するステップとを含む
    請求項23又は請求項24記載の音声情報蓄積方法。
  26. オペレータと顧客との通話中に、ユーザの操作に従って音声データ中の秘密情報が含まれる範囲を指定し、又は、オペレータと顧客との通話が終了した後に、通話を録音した音声データに対して、ユーザの操作に従って秘密情報が含まれる範囲を指定する請求項25記載の音声情報蓄積方法。
  27. 顧客とオペレータとの通話中に、逐次顧客とオペレータとの通話の音声データを入力して音声認識し、又は、通話の音声を録音する通話録音装置が蓄積する音声データを入力して音声認識する請求項23から請求項26のうちのいずれか1項に記載の音声情報蓄積方法。
  28. 顧客とオペレータとの通話内容を書き起こしたテキストデータである書き起こしテキストを記録するステップと、
    書き起こしテキスト中の検出したキーワード又はキーワードの出現パターンの出現位置に対応する部分の文字列を、削除又は別の文字列に置換するステップとを含む
    請求項23から請求項27のうちのいずれか1項に記載の音声情報蓄積方法。
  29. 所定のキーワード又はキーワードの出現パターンを示す出現パターン情報を記憶する記憶手段を備えたコンピュータに、
    顧客とオペレータとの会話の音声を含む音声データを入力し、前記入力した音声データを音声認識してテキストデータに変換する処理と、
    前記変換したテキストデータ中の文字列位置と前記音声データを再生した場合の再生時間とを対応付けた時間対応テーブルを生成する処理と、
    前記音声認識結果に基づいて、前記記憶手段が記憶するキーワード又は出現パターン情報に示される出現パターンが、前記音声データ中に出現する出現位置を検出する処理と、
    前記検出した前記音声データ中の出現位置の箇所の先頭部分に対応する時間を前記時間対応テーブルから開始時間として抽出するとともに、前記検出した前記音声データ中の出現位置の箇所の末尾部分に対応する時間を前記時間対応テーブルから終了時間として抽出する処理と、
    前記音声データ中の前記開始時間から前記終了時間までの音声を削除又は別の音声に置換する処理と、
    前記削除又は置換後の音声データを音声データ記憶手段に記憶させる処理とを
    実行させるための音声情報加工プログラム。
  30. コンピュータに、
    顧客とオペレータとの会話の音声を含む音声データのうちの秘密情報が含まれる範囲を指定する処理と、
    入力した音声データのうち、前記指定した範囲の音声を音声認識する処理とを実行させる
    請求項29記載の音声情報加工プログラム。
  31. コンピュータに、
    オペレータと顧客との通話中に、ユーザの操作に従って音声データ中の秘密情報が含まれる範囲を指定する処理、又は、オペレータと顧客との通話が終了した後に、通話を録音した音声データに対して、ユーザの操作に従って秘密情報が含まれる範囲を指定する処理を実行させる
    請求項30記載の音声情報加工プログラム
  32. コンピュータに、
    顧客とオペレータとの会話中に、逐次顧客とオペレータとの通話の音声データを入力して音声認識する処理、又は、通話の音声を録音する通話録音装置が蓄積する音声データを入力して音声認識する処理を実行させる
    請求項29から請求項31のうちのいずれか1項に記載の音声情報加工プログラム。
  33. コンピュータに、
    顧客とオペレータとの通話内容を書き起こしたテキストデータである書き起こしテキストを記録する処理と、
    書き起こしテキスト中の検出したキーワード又はキーワードの出現パターンの出現位置に対応する部分の文字列を、削除又は別の文字列に置換する処理とを実行させる
    請求項29から請求項32のうちのいずれか1項に記載の音声情報加工プログラム。
JP2004371605A 2004-12-22 2004-12-22 音声情報加工システム、音声情報加工方法及び音声情報加工プログラム Expired - Fee Related JP4747573B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004371605A JP4747573B2 (ja) 2004-12-22 2004-12-22 音声情報加工システム、音声情報加工方法及び音声情報加工プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004371605A JP4747573B2 (ja) 2004-12-22 2004-12-22 音声情報加工システム、音声情報加工方法及び音声情報加工プログラム

Publications (2)

Publication Number Publication Date
JP2006178203A JP2006178203A (ja) 2006-07-06
JP4747573B2 true JP4747573B2 (ja) 2011-08-17

Family

ID=36732374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004371605A Expired - Fee Related JP4747573B2 (ja) 2004-12-22 2004-12-22 音声情報加工システム、音声情報加工方法及び音声情報加工プログラム

Country Status (1)

Country Link
JP (1) JP4747573B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5092720B2 (ja) * 2007-12-04 2012-12-05 富士通株式会社 商品説明内容書き起こし支援プログラム、装置、および、方法。
JP5184071B2 (ja) * 2007-12-27 2013-04-17 株式会社エヌ・ティ・ティ・データ 書き起こしテキスト作成支援装置、書き起こしテキスト作成支援プログラム、及び書き起こしテキスト作成支援方法
US8244531B2 (en) * 2008-09-28 2012-08-14 Avaya Inc. Method of retaining a media stream without its private audio content
KR100986971B1 (ko) 2009-04-14 2010-10-11 주식회사 루키스 통화 내용 녹취 서비스 방법 및 그 시스템
JP2012133483A (ja) * 2010-12-20 2012-07-12 Hoya Corp 医用情報管理システム
WO2014097752A1 (ja) * 2012-12-19 2014-06-26 日本電気株式会社 価値可視化装置、価値可視化方法、及びコンピュータ読み取り可能な記録媒体
JP6438674B2 (ja) * 2014-04-28 2018-12-19 エヌ・ティ・ティ・コミュニケーションズ株式会社 応答システム、応答方法及びコンピュータプログラム
JP6591217B2 (ja) * 2014-07-16 2019-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声認識テキスト化システムの制御方法
JP6644153B2 (ja) * 2016-09-02 2020-02-12 シャープ株式会社 応答装置およびその制御方法、ならびに制御プログラム
JP7033426B2 (ja) * 2017-10-10 2022-03-10 株式会社日立情報通信エンジニアリング 音声録音再生システム及び音声録音再生方法
US10453447B2 (en) * 2017-11-28 2019-10-22 International Business Machines Corporation Filtering data in an audio stream
CN111462785B (zh) * 2020-04-03 2021-09-28 惠州Tcl移动通信有限公司 录音控制方法、装置、存储介质及移动终端
JP7388997B2 (ja) * 2020-09-07 2023-11-29 株式会社日立製作所 音声情報加工システム及び音声情報加工方法
US20240256710A1 (en) * 2021-08-06 2024-08-01 Nec Corporation Information processing system, information processing apparatus, information processing method, and recording medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067064A (ja) * 1998-08-20 2000-03-03 Hitachi Electronics Service Co Ltd 対話記録システム
JP2002221981A (ja) * 2001-01-25 2002-08-09 Canon Inc 音声合成装置および音声合成方法
US7039585B2 (en) * 2001-04-10 2006-05-02 International Business Machines Corporation Method and system for searching recorded speech and retrieving relevant segments
JP2004007344A (ja) * 2002-03-25 2004-01-08 Sanyo Electric Co Ltd 光ディスク再生装置
JP2004038252A (ja) * 2002-06-28 2004-02-05 Toshiba Solutions Corp 情報提供支援システム及び情報提供支援方法
JP2004297352A (ja) * 2003-03-26 2004-10-21 Denon Ltd 通話記録再生装置および通話記録再生方法
JP3811165B2 (ja) * 2004-05-24 2006-08-16 株式会社東芝 無線通信機能付きヘッドセット

Also Published As

Publication number Publication date
JP2006178203A (ja) 2006-07-06

Similar Documents

Publication Publication Date Title
US8537980B2 (en) Conversation support
JP4785722B2 (ja) 少なくとも1人のユーザのためのボイス・メールボックス内の項目を管理するための方法、システム、およびプログラム(インターネット電話ボイス・メール管理)
KR101691239B1 (ko) 자동 보이스메일 프리뷰를 통한 강화된 보이스메일 사용 방법
JP4747573B2 (ja) 音声情報加工システム、音声情報加工方法及び音声情報加工プログラム
US8457964B2 (en) Detecting and communicating biometrics of recorded voice during transcription process
US8328089B2 (en) Hands free contact database information entry at a communication device
JP5042194B2 (ja) 話者テンプレートを更新する装置及び方法
US8391445B2 (en) Caller identification using voice recognition
US20080059177A1 (en) Enhancement of simultaneous multi-user real-time speech recognition system
JP6296821B2 (ja) 業務支援システム
JP2011511537A (ja) 発話名の発音の音声版を提供するシステムおよび方法
US8869032B2 (en) Telecom web browsers, and methods for defining a telecom web browser
US8867711B2 (en) Telecom web browsers, and methods for defining a telecom web browser
WO2011074180A1 (ja) 音声入力システムおよび音声入力プログラム
JP2015528678A (ja) 呼分析を学習する方法およびシステム
KR20120104662A (ko) 이동통신 단말기의 발신자 정보 제공 장치 및 방법
JP6606697B1 (ja) 通話システム、及び通話プログラム
JP2014178381A (ja) 音声認識装置、音声認識システムおよび音声認識方法
JP2016225740A (ja) 通話振り分けシステム、呼制御装置およびプログラム
JP2012222798A (ja) 通話音声履歴機能つき電話端末
JP2010219969A (ja) 検索機能を有する通話録音装置および電話機
US10462286B2 (en) Systems and methods for deriving contact names
JP5007913B2 (ja) メタデータ付き通話音声データ提供システム、方法、プログラム、サーバー及び携帯端末
JP2017163198A (ja) 音声認識システム、コネクト装置および音声認識方法
JP2017216672A (ja) 通話装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110502

R150 Certificate of patent or registration of utility model

Ref document number: 4747573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140527

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees