JP3760420B2 - Voice response service equipment - Google Patents

Voice response service equipment Download PDF

Info

Publication number
JP3760420B2
JP3760420B2 JP32204495A JP32204495A JP3760420B2 JP 3760420 B2 JP3760420 B2 JP 3760420B2 JP 32204495 A JP32204495 A JP 32204495A JP 32204495 A JP32204495 A JP 32204495A JP 3760420 B2 JP3760420 B2 JP 3760420B2
Authority
JP
Japan
Prior art keywords
voice response
user
response service
unit
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32204495A
Other languages
Japanese (ja)
Other versions
JPH08251307A (en
Inventor
敦子 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP32204495A priority Critical patent/JP3760420B2/en
Publication of JPH08251307A publication Critical patent/JPH08251307A/en
Application granted granted Critical
Publication of JP3760420B2 publication Critical patent/JP3760420B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は音声応答サービス装置に関する。本発明は、特に、履歴情報の再生を迅速に行い、テレフォンサービスの利用者の性別や年齢区分などの属性や相手の操作環境に合わせて、音質を変更する音声応答サービス装置に関する。
【0002】
【従来の技術】
コンピュータにより自動応答する音声応答サービス装置として、テレホンサービスが知られている。
【0003】
このテレホンサービスは、予め設定された音質(速度、音量、性別あるいはバックグランドミュージックBGM)により音声を流す。この種の音声応答サービス装置は、テレホンサービスが提供される時に、例えば、特定の年齢層に合わせた標準的な音質に設定する。
【0004】
このような音声サービス装置は、例えば、特開昭59ー181767号公報または特開平3ー160868号公報に記載される。これらの公報に記載された音声応答サービス装置は、音声サービス装置内の音声認識装置を使用することにより、預金残高照会などのサービスを提供する。
【0005】
また、特開昭61ー235940号公報の装置は、電話機での音声出力レベルを常に一定値になるように出力レベルを補正する。これにより、利用者は音声情報を容易に聴取することができる。
【0006】
しかし、特開昭61ー235940号公報の装置において、出力レベルを補正するために利用者側から音量、性別の指定が必要であった。すなわち、手動により補正が行われるため、作業が大変であった。
【0007】
また、残りの公報の装置は利用者に合わせた音質によりサービスを提供していなかった。この種の音声応答サービス装置では、通話をする相手にしたがって声を大きくしたり、ゆっくり話すなどによって相手が理解しやすいように微調整を行う必要があった。このため、利用者の年齢、性別により自動的に音質を変更する音声応答サービス装置が要求されていた。
【0008】
また、前記音声応答サービス装置は、テレホンサービスを利用することにより商品の通信販売を行うことができる。この音声応答サービス装置は、通常では、利用者情報や利用者からの商品入力情報を履歴情報として収集する。
【0009】
前記音声応答サービス装置において、利用者の発注した商品、数量、金額などの発注トラブルなどによって利用者から問い合わせがあった場合に、過去の履歴情報を追うことにより利用者の操作を確認する作業が必要であった。
【0010】
さらに、前記音声応答サービス装置は、障害などが発生したとき、履歴情報に基づき人手によって利用者の操作を再生させていた。
【0011】
【発明が解決しようとする課題】
しかしながら、以上に説明した音声応答サービス装置では、たとえば発注トラブルが生じた場合に、人手によって履歴情報を再生しなければならなかった。このため、多くの時間がかかるだけでなく、人件費も大きくなっていた。また、誤操作箇所を自動的に追跡する必要もあった。
【0012】
さらに、この種の音声応答サービス装置では、手動によって発注トラブルの原因および音声応答サービスをスムースに行なうためのテストを行っていたので、開発時・保守時のテスト工数がかなりかかっていた。
【0013】
そこで、本発明の目的は、テレフォンサービスの利用者の性別や年齢区分などの属性や相手の操作環境に合わせて、音質を変更することにより快適性の高いサービスを提供することにある。
【0014】
また、本発明は、履歴情報から過去のサービスを再生し、容易にそのサービスの内容を確認することにある。
さらに、本発明の目的は、開発時・保守時のテスト工数や人件費を削減することにある。
【0015】
【課題を解決するための手段】
本発明の音声応答サービス装置は、前記課題を解決するため、以下の手段を採用した。
【0016】
本発明は、音声応答サービスの処理手順に基づき利用者から入力されるプッシュボタン信号に応じた音声応答サービスを処理する音声応答サービス装置であって、利用者単位に、前記音声応答サービスの処理手順に応じて該利用者から入力されるプッシュボタン信号情報を含む該音声応答サービスのログ情報を時系列に記憶するログ情報記憶手段と、前記ログ情報記憶手段に記憶されたログ情報の中から特定の前記プッシュボタン信号情報を元にログ情報を抽出するログ情報抽出手段と、前記音声応答サービスの処理手順に基づき前記ログ情報抽出手段が抽出したログ情報のプッシュボタン信号情報に応じて音声応答サービスを再生する音声応答サービス再生手段とを備えることを特徴とする音声応答サービス装置についてのものである。
【0017】
また、本発明は、前記ログ情報記憶手段に記憶するログ情報には、電話回線の接続時間又は電話回線の切断時間の少なくとも一方の時間情報を含み、前記ログ情報抽出手段が、前記ログ情報記憶手段に記憶された時間情報を元に再生開始位置を判定する。
【0018】
また、本発明は、前記ログ情報記憶手段には、前記プッシュボタン信号情報を文字情報として記憶し、前記プッシュボタン信号の文字情報を音声に合成する音声合成処理手段を更に備え、前記音声応答サービス再生手段が、前記ログ情報抽出手段が抽出したログ情報のプッシュボタン信号情報について前記音声合成処理手段で合成した音声を含む音声応答サービスを再生する。
また、本発明は、前記ログ情報記憶手段に記憶するログ情報のプッシュボタン信号情報には、前記音声応答サービスの処理手順に応じて利用者から入力される該利用者の利用者番号を含み、前記ログ情報抽出手段が、前記ログ情報記憶手段に記憶されたログ情報の中から、該当する利用者番号を含むログ情報を特定して再生したいログ情報を抽出する。
【0019】
音声合成処理手段は、たとえば文字列より音声を合成する音声規則合成方式により音声
合成を行う。この音声合成方式には、この他に音声信号の特徴を利用して音声波形を符号化する波形符号化方式、音声の生成モデルにしたがって音声信号を符号化する分析合成方式などがある。
【0023】
発明において、前記装置は、電話回線を制御するとともに利用者からのプッシュボタン信号及び回線接続通知情報を前記音声応答サービス再生手段に出力する回線制御部を含んでもよい。
【0024】
発明において、前記回線制御部からのプッシュボタン信号及び回線接続通知情報を前記音声応答サービス再生手段に出力する場合には、前記音声応答サービス再生手段を前記回線制御部に接続し、前記ログ情報抽出手段により抽出されたログ情報を再生する場合には、前記音声応答サービス再生手段を前記ログ情報抽出手段に接続する切替え部を前記装置に備えてもよい。
【0025】
発明において、前記音声応答サービス再生手段にナレーション情報を送出するナレーション情報送出部を備えてもよい。本発明において、前記音声応答サービス再生手段は、前記ナレーション情報送出部からのナレーション情報に従ってサービスを実行し、前記プ
ッシュボタン信号の値に従ったサービスを利用者に提供する。
【0026】
発明において、前記音声応答サービス再生手段が音声応答サービスを実行するとき、前記ナレーション情報送出部からのナレーション情報をログ情報として前記ログ情報記憶手段に書き込むログ情報書き込み部を備えるようにしてもよい。
【0027】
発明において、前記音声応答サービス再生手段が音声応答サービスを実行するとき、前記ナレーション情報送出部からのナレーション情報を文字情報に変換し変換された文字情報をファイル形式のテキストとして書き込むテキストファイル部を備えてもよい。
【0028】
発明において、前記音声合成処理手段は、前記テキストファイル部に書き込まれた文字情報を音声情報に変換してもよい。本発明において、前記音声合成処理手段は、前記ナレーション情報送出部からのナレーション情報を音声情報に変換してもよい。前記音声合成処理手段により変換された音声情報を記憶する蓄積音ファイル部を含んでもよい。
【0029】
発明において、前記ログ情報記憶手段にログ情報を書き込むログ情報書き込み部を備える。前記音声応答サービス再生手段は前記ログ情報書き込み部により前記ログ情報記憶手段に書き込まれたログ情報を再生してもよい。
【0030】
発明において、前記音声合成処理手段は、疑似回線を制御する疑似回線制御部に接続
され、前記疑似回線制御部を通して前記変換された音声情報をスピーカに送出してもよい。
【0034】
なお、前記以上説明された各々発明を適宜組み合わせてもよい。本発明によれば、ログ情報記憶手段は音声応答により利用者との対話形式で行われる複数の処理内容を時間的な推移の記録を示すログ情報として記憶するとともに前記複数の処理内容の各々を識別するための識別情報を前記音声応答の内容の一部分として記憶する。音声応答サービス再生手段、識別情報に対応するログ情報の対話形式の処理内容を前記ログ情報記憶部から読み出し読み出された処理内容を音声に再生する。
【0035】
これにより、自動的にログ情報から過去のサービスを再生し、容易にそのサービスの内容を確認することができる。
また、ログ情報に含まれる電話回線の接続、切断の時間情報により処理内容を特定することができる。
【0036】
また、電話回線を介して利用者から受信するプッシュボタン信号が文字情報としてログ情報記憶手段に記憶される。したがって、記憶されたプッシュボタン信号によりログ情報を再生できる。
【0037】
また、音声合成処理手段は、前記ログ情報記憶手段に記憶された文字情報から応答すべき音声を合成する
【0039】
また、ログ情報抽出手段が、前記ログ情報記憶手段に記憶されたログ情報の中から特定の前記プッシュボタン信号情報を元にログ情報を抽出すると、音声応答サービス再生手段は前記ログ情報抽出手段により抽出されたログ情報のプッシュボタン信号情報に応じて音声応答サービスを再生する。前記音声合成処理手段は前記音声応答サービス再生手段から送られてくるログ情報から音声を合成する。これにより、ログ情報から特定の処理内容を再生することができる。
【0040】
また、回線制御部は電話回線を制御するとともに利用者からのプッシュボタン信号及び回線接続通知情報を前記音声応答サービス再生手段に出力する。利用者と音声応答サービス装置との間の対話がスムースに行われる。
【0041】
また、切換部は前記音声応答サービス再生手段を前記回線制御部に接続するので、通常のサービスが提供される。切換部は前記音声応答サービス再生手段を前記ログ情報抽出手段に接続するので、ログ情報から過去のサービスを再生することができる。
【0042】
また、音声応答サービス再生手段は、ナレーション情報送出部からのナレーション情報に従って、サービスを実行することができる。また、前記音声応答サービス再生手段は、前記ナレーション情報送出部からのナレーション情報に従ってサービスを実行し、前記プッシュボタン信号の値に従ったサービスを利用者に提供する。これにより、利用者と音声応答サービス装置との間の対話をナレーション情報に従って行えるので、利用者の負担が軽減できる。
【0043】
また、前記音声応答サービス再生手段が音声応答サービスを実行するとき、ログ情報書き込み部は前記ナレーション情報送出部からのナレーション情報をログ情報として前記ログ情報記憶手段に書き込む。これにより、たとえば発注情報に誤りがある場合には、ログ情報をログ情報記憶手段から読み出して誤操作箇所の追跡が行える。
【0044】
また、テキストファイル部はナレーション情報送出部からのナレーション情報を文字情報に変換してファイル形式のテキストとして書き込むので、たとえば音声規則合成により文字情報を音声情報に合成することができる。
【0045】
また、音声合成処理手段はナレーション情報送出部からのナレーション情報を音声情報に変換し、蓄積音ファイル部は変換された音声情報を書き込むことができる。
【0046】
また、音声応答サービス再生手段はログ情報書き込み部によりログ情報記憶手段に書き込まれたログ情報を再生する。これにより、障害が発生した場合に行う再現テストのテスト時間を短縮することができる。
【0047】
また、音声合成処理手段は疑似回線制御部を介して音声情報をスピーカに送出する。その結果、スピーカの出力により利用者にログ情報の誤りが音声で認識される。
【0052】
【発明の実施の形態】
以下、本発明の音声応答サービス装置の実施の形態を図面を参照して詳細に説明する。
<実施の形態1>
図1は本発明の音声応答サービス装置を含む音声応答サービスシステムの実施の形態1を示すブロック図である。
【0053】
実施の形態1のシステムは、利用者とコンピュータとの対話処理を履歴情報格納部から自動再生して商品の受注業務、予約業務、資料請求業務および銀行振込業務などの時間外業務に適用することにより、人件費を削減する。
【0054】
図1において、音声応答サービスシステムは、音声応答サービス装置として動作するコンピュータCと、このコンピュータCに接続され利用者が利用する電話機側Uから構成される。音声応答サービスシステムは、テレホンサービス業務に用いられる。
【0055】
前記音声応答サービスシステムは、たとえば、家庭、オフイスなどの電話機側UによりコンピュータCにプッシュボタン信号を出力し、コンピュータCと電話機側Uとの間で対話処理を行うことにより前記各種の業務を行う。
【0056】
前記コンピュータCは点線で囲まれる音声応答サービス部10と、履歴情報抽出部12、疑似回線制御部19、スピーカ33を備える。
前記音声応答サービス部10は、通常時にテレフォンサービスを行うときに動作する。前記音声応答サービス部10は、ナレーションストーリ出力部15、履歴情報格納部11、切換部20、回線制御部14、サービス実行部17、音声合成処理部18を備える。
【0057】
図5はサービス内容を記述した図である。ここでは、サービス内容は例えば、商品の受注業務である。このサービス内容はナレーションストーリと呼ばれる。前記ナレーションストーリ出力部15はナレーションストーリを出力する。
【0058】
図2は履歴情報格納部11に格納される履歴情報を示す図である。図5のナレーションストーリの通りに音声応答サービスが行われたとき、図2に記録される履歴情報の一例が示される。履歴情報格納部11は、時間とともにサービス内容を記録する。
【0059】
すなわち、履歴情報格納部11は、時間Aに利用者が商品受注システムに適用した電話回線の接続から電話回線の切断までに提供するサービスの開始からサービスの終了までのサービスの内容の時間的推移を表すログ情報(履歴情報)を格納する。履歴情報格納部11は、電話回線の接続時間、切断時間、コンピュータがナレーションを読み始めた時間、利用者がプッシュボタンを入力した時間などの時間情報を記録する。
【0060】
図3と図4は利用者側(U)とコンピュータ側(C)との動作シーケンスを示す図である。図3は図5のナレーションストーリ通りにサービスが実行されるシーケンスを示す図である。図4はサービスの実行途中で障害が発生した例を示す図である。
【0061】
前記履歴情報抽出部12は、前記履歴情報格納部11に接続され、サービスの再生を行うときに動作する。前記履歴情報抽出部12は、履歴情報格納部11に格納された履歴情報の中から、利用者が入力したプッシュホンデータを抽出する。
履歴情報抽出部12には切換部20が接続される。
【0062】
切換部20は接点からなるもので、回線制御部14をサービス実行部17に接続するとき、すなわち、通常のサービスが提供されるとき、利用者が入力するプッシュボタン信号を電話機30からサービス実行部17に読み込み動作する。
【0063】
切換部20は、履歴情報抽出部12をサービス実行部17に接続するとき、すなわち、過去のサービスを再生するとき、利用者が入力したプッシュホンデータを履歴情報格納部11から履歴情報抽出部12を介してサービス実行部17に送る。サービス実行部17は履歴情報抽出部12からの過去のサービスを実施する。音声合成処理部18はサービス実行部17からの過去に行ったサービスを音声で再生する。
【0064】
前記音声合成処理部18は、図6に示される音声合成方式の中で、たとえば文字列より音声を合成する規則合成方式によって発音を表す文字列より音声を合成する。音声応答サービスシステムで使用する音声合成方式には図6に示されるように、波形符号化方式、分析合成化方式、規則合成方式などがある。
【0065】
規則合成方式は、図7および図8において説明される。規則合成方式は、かな漢字混じりの文字列を文章解析し、その解析された文字列からなる信号波形を合成することにより、音声に変換する方式である。この規則合成方式は、他の方式に比べて情報量が少なくて済むので、出力語数を無限にすることができ、音声応答サービスシステムに好適な方式である。
【0066】
波形符号化方式とは、読み上げたい単語をあらかじめ録音しておき、言葉同士をつなげることにより、合成する方式である。分析合成化方式とは、音声の生成モデルに基づいて音声信号を符号化する音声合成方式であり、これらの方式でも音声を合成することが可能である。
【0067】
テレフォンサービスでは、音声合成方式による発音のほかに、蓄積音の再生による音声も使用している。蓄積音声は、一般的に規則合成音よりも品質が良いが、内容の変更には録音作業が必要であるため、運用性が悪くなる。この蓄積音声は、不変的な内容の読み上げに使用するのに良い。
【0068】
一方、規則合成音は、一過性の文章、不定型文章、一部可変文書などの不定型の音声を再生する際に好適である。
図7は音声合成方式を採用した音声合成処理部の具体的な構成例を示す図である。図7において、前記音声合成処理部18は、言語処理部31、音響処理部32とから構成される。言語処理部31には、文章解析部34、単語辞書35、読み・韻律記号付与部36が設けられている。
【0069】
文章解析部34は入力した文章を解析単位に分割し、分割された文章を単語辞書35に記憶された単語と照合することにより単語分割を行い、単語毎の読み、アクセント型、文法情報を設定する。読み・韻律記号付与部36は文章解析部34から得られた情報に基づき読みや韻律記号を付加する。韻律記号は例えばポーズ、文節のアクセント、イントネーションなどである。
【0070】
この言語処理部31では、読み・韻律記号付与部36が読みや韻律記号を付与すると、音響処理部32は抑揚を付加して波形合成などにより音響を出力する。音響処理部32は、抑揚生成部37、波形合成部38および音素データベースである音素片部39から構成されている。抑揚生成部37は前記読み、韻律記号に基づき音素毎の時間長と、声の高さを表す抑揚パターンを生成する。波形合成部38は音素片部39に格納された音素片データを読み出し、前記音素時間長、抑揚パターンに従って音素片データをなめらかに接続して音声波形を合成する。
【0071】
この音響処理部32は、波形合成部38から波形合成された音声をスピーカ33に出力し、スピーカ33はたとえば「コレワ、オンセーゴーセーデス」を出力する。
【0072】
図8は図7に示す音声合成方式によって音声合成を行う具体的例を示す図である。たとえば、図8に示す「これは、音声合成です」という文章を例として、音声合成を説明する。先ず、文章解析部34は前記文章を入力し単語分割を行う。文章解析部34は文章を「これ/は/、音声/合成/で/す。」のように単語毎に分割する。
【0073】
次に、文章解析部34は文節の設定を行う。文章解析部34は「これは/、音声合成です。」のように文節を設定する。
読み・韻律記号付与部36は、文章解析部34の結果に基づき、読みを付与し、ポーズ、文節のアクセント、イントネーションを表す韻律符号を付与する。読みは「コレ/ワ/、オ,ンセー/ゴーセー/デス/。」となる。韻律符号は、「コレワ、オンセーゴ,ーセーデス。」となる。
【0074】
次に、音響処理部32において、抑揚生成部37は音の高さを示す抑揚パターンを生成し、波形合成部38は音素片部39から音素片データを読み出し音素時間長情報と抑揚パターン情報に従って音素片データを接続して音声波形を合成する。
【0075】
以上の処理を行うことにより、音声データが音響処理部32から出力される。(通常サービス時の動作説明)
次に、このように構成された音声応答サービスシステムの実施の形態1の通常サービス時における動作を説明する。
【0076】
まず、切換部20が回線制御部14をサービス実行部17に接続する。ナレーションストーリ出力部15が、ナレーションストーリをナレーショーンストーリ解析部16に出力すると、ナレーショーンストーリ解析部16は前記ナレーションストーリを解析する。
【0077】
サービス実行部17は、解析されたナレーションストーリにしたがって、音声合成処理部18への音声出力指示、履歴情報書き込み部27への指示、回線制御部14へのプッシュボタン読み込み指示、読み込んだ結果での処理の分岐、データベースアクセス部22へのアクセス指示などを行う。利用者が入力するプッシュボタン信号は電話機30からサービス実行部17に読み込まれる。
【0078】
音声の出力については、ナレーションストーリにしたがって、蓄積音ファイル26、テキストファイル25等を用いてサービスを実行する。
データベース23は、利用者に関する情報が書き込まれている利用者データベース、商品情報が書き込まれている商品データベースあるいは受注情報が書き込まれている受注データベースからなる。
【0079】
データベースアクセス部22は、データベース23の書き込み読み出し処理を行う。テキストファイル25は予めテキスト情報を格納し、蓄積音声ファイル26は蓄積音声情報を格納する。履歴情報書き込み部27は、サービス実行部17で指示されたサービス内容を履歴情報格納部11に書き込む。音声合成処理部18は、既に図6から図8において説明された音声合成方式によって音声を合成する。
【0080】
なお、切換部50により音声合成処理部18からの音声データ出力は、回線制御部14を介して電話機30に出力することもできる。このとき、電話回線に接続せずに音声応答サービスの内容をモデル化し、それらのモデルを解析することができる。
【0081】
また、音声合成処理部18からの音声データは、疑似回線制御部19を制御してスピーカ33を鳴動させることもできる。作業者はサービス内容を音声データとして聞くことができる。
<ナレーションストーリ出力部>
次に、ナレーションストーリ出力部15を、図5に示す手順番号1から手順番号23までの手順にしたがって詳細に説明する。
【0082】
このナレーションストーリ出力部15では、ナレーションの内容が手順番号1から手順番号23までの手順にしたがって決められている。
すなわち、手順番号1では、サービスの概要に蓄積音声ファイル「open.pcm」が指定されているので、図1の蓄積音ファイル26から「open.pcm」を読み出し、「open.pcm」が音声応答サービス部10より読み上げられる。
【0083】
手順番号2では、ナレーションストーリ出力部15の利用者番号の入力ナレーションである、たとえば「利用者番号を入力してください」が音声応答サービス部10より読み上げられる。
【0084】
手順番号3では、利用者側で利用者番号を電話機30のプッシュボタンより入力すると、そのプッシュボタンの内容が読み込まれ、利用者番号が音声応答サービス部10に入力される。
【0085】
手順番号4では、音声応答サービス部10は利用者の照会があると、データベース23の利用者データベースをアクセスさせる。
手順番号5では、手順番号4でのデータベース23を照会した結果を、ナレーションストーリ出力部15の利用者番号および利用者番号の確認である「××番、〇〇様ですね?」というナレーションとして、音声応答サービス部10より読み上げる。
【0086】
手順番号6では、利用者からの確認結果に基づいて音声応答サービス部10は処理を分岐する。この手順番号6では、たとえば「1」を利用者が電話機30のプッシュボタンで選択したとき、処理は手順番号7の処理に進む。また、たとえば「9」を利用者が電話機30のプッシュボタンで選択したとき、手順番号2の処理を再び実行する。
【0087】
手順番号7では、ナレーションストーリ出力部15の商品番号の入力案内ナレーションである「商品番号を入力してください」というナレーションを音声応答サービス部10より読み上げる。
【0088】
手順番号8では、たとえばプッシュボタンにより商品番号を音声応答サービス部10に入力すると、音声応答サービス部10は前記商品番号を読み込む。
手順番号9では、音声応答サービス部10は商品の照会があると、データベース23の商品データベースをアクセスさせる。
【0089】
手順番号10では、手順番号9でのデータベースを照会した結果を、ナレーションストーリ出力部15の商品番号確認ナレーションである「××番、〇〇様ですね?」というナレーションとして、音声応答サービス部10より読み上げる。
【0090】
手順番号11では、利用者からの確認結果に基づいて音声応答サービス部10は処理を分岐する。
この手順番号11では、たとえば「1」を利用者が電話機30のプッシュボタンで選択したとき、処理は手順番号12の処理に進む。
【0091】
またたとえば「9」を利用者が電話機30のプッシュボタンで選択したとき、手順番号7の処理を再び実行する。
手順番号12では、ナレーションストーリ出力部15の個数入力ナレーションである、「個数を入力してください」というナレーションを音声応答サービス部10より読み上げる。
【0092】
手順番号13では、たとえばプッシュボタンにより個数を音声応答サービス部10に入力すると、音声応答サービス部10は個数を読み込む。
手順番号14では、ナレーションストーリ出力部15で入力完了確認ナレーションである、「以上でよろしいですか」というナレーションを音声応答サービス部10より読み上げる。
【0093】
手順番号15では、利用者からの確認結果に基づいて音声応答サービス部10は処理を分岐する。
この手順番号15では、たとえば「1」を利用者が電話機30のプッシュボタンで選択したとき、処理は手順番号16の処理に進む。
【0094】
またたとえば「9」を利用者が電話機30のプッシュボタンで選択したとき、手順番号7の処理を再び実行する。
手順番号16では、ナレーションストーリ出力部15の入力確認ナレーションである「以上でよろしいですか」を音声応答サービス部10から読み上げる。
【0095】
手順番号17では、利用者からの確認結果に基づいて音声応答サービス部10は処理を分岐する。
たとえば、「1」を利用者が電話機30のプッシュボタンで選択したとき、処理は手順番号18の処理に進む。
【0096】
またたとえば「9」を利用者が電話機30のプッシュボタンで選択したとき、手順番号7の処理を行う。
手順番号18では、ナレーションストーリ出力部15で発注内容繰り返しナレーションにテキストファイル「order.txt」が指定されているので、テキストファイル25から読み出したナレーションを音声応答サービス部10より読み上げる。
【0097】
手順番号19では、ナレーションストーリ出力部15の発注確認ナレーションである「以上でよろしいですか」というナレーションを音声応答サービス部10より読み上げる。
【0098】
このとき、手順番号20では、利用者からの確認結果に基づいて音声応答サービス部10は処理を分岐する。
この手順番号20では、たとえば「1」を利用者が電話機30のプッシュボタンで選択したとき、手順番号21の処理を行う。
【0099】
またたとえば「9」を利用者が電話機30のプッシュボタンで選択したとき、手順番号23の処理を実行する。
手順番号21では、ナレーションストーリ出力部15の発注番号ナレーションである「発注番号は〇〇番ですね?」というナレーションを音声応答サービス部10より読み上げる。
【0100】
手順番号22では、発注処理を行う。受注した内容をデータベース23の発注データベースに書き込む。
手順番号23では、ナレーションストーリ出力部15のサービスの終了ナレーションに、蓄積音声である「close.pcm」が指定されているので、蓄積音ファイル26から読み出し音声応答サービス部10より読み上げられる。
【0101】
以上に説明した図5の音声応答サービス装置によれば、利用者側Uの電話機30とコンピュータCの音声応答サービス部10との処理を対話形式で確実に行うことができる。
(図3のシーケンスの説明)
以上に説明した図1のナレーションストーリ出力部15を用いて図3の処理を説明する。
【0102】
たとえば、利用者U側では、利用者番号「651123」が入力103として電話機30のプッシュボタンにより入力されると、コンピュータC側に利用者番号「651123」が送信される。
コンピュータC側に送信された利用者番号「651123」である送信情報はコンピュータC側の回線制御部14によって確認された後に、ナレーションストーリ出力部15からナレーションストーリ104が出力される。そして、利用者番号・利用者名の確認案内104が利用者U側の電話機30に送信される。
【0103】
一方、コンピュータC側では、図3に示すように利用者U側から送られた利用者番号・利用者名の確認okを回線制御部14が確認した後に、コンピュータC側から利用者U側の電話機30に商品番号の入力案内指示を出力するためにナレーションストリー出力部15からナレーションストーリ106が出力される。
【0104】
ナレーションストーリ出力部15は、ナレーションストーリをナレーションストーリ解析部16に出力し、ナレーションストーリ解析部16はナレーションストーリを解析する。
【0105】
サービス実行部17は、ナレーションストーリ解析部16で解析されたナレーションストーリにしたがってデータベース23あるいはファイル25、26を用いてサービスを実行する。
(発注時の処理)
また、利用者U側の電話機30は、コンピュータC側のナレーションストーリ出力部15から送られた商品番号入力指示の案内106にしたがって、利用者が商品番号「321」を電話機30のプッシュボタンより入力する。この商品番号「321」は、特定の商品を表すコード情報である。
【0106】
利用者UがコンピュータC側に対して商品番号「321」が電話機30より入力107として入力したときには、コンピュータC側の回線制御部14はその商品番号「321」を確認し、さらに、商品番号「321」をデータベース23の商品データベースにあることを確認する。そして、商品番号「321」の確認指示案内がコンピュータC側から利用者U側の電話機30に送信108として送信される。
【0107】
利用者U側の電話機30は、商品番号「321」の確認指示案内をコンピュータC側から受信したとき、自己が発注した商品が、商品番号「321」で表された商品に相違ないことを示す確認情報「1」が、電話機30のプッシュボタンより入力される。
【0108】
次に、商品の個数入力案内110がコンピュータC側から利用者U側の電話機30に送信される。
個数入力案内110を受けた利用者U側の電話機30は、発注すべき商品の個数、たとえば「3」を電話機30のプッシュボタンより入力111として入力する。
【0109】
利用者U側からコンピュータC側に発注すべき商品の個数情報が送信されたときには、コンピュータC側はデータベース23の商品データベースに商品の在庫があることを確認して、その商品の個数確認情報112がコンピュータC側から利用者U側の電話機30に送信される。
【0110】
このとき、利用者U側の電話機30は、個数確認済み情報「1」を電話機30のプッシュボタンより入力114として入力する。
コンピュータC側から入力終了確認案内114が利用者U側の電話機30に送信されると、入力完了の意志、たとえば「1」なら終了指示が電話機30のプッシュボタンより入力115として入力され、その終了指示が利用者U側からコンピュータC側に送信される。
【0111】
以上の応答指示がコンピュータC側と利用者U側の電話機30間で行われると、発注の意志を確認するため、ナレーションストーリ出力部15の注文内容の確認案内116、発注確認案内117がコンピュータC側から利用者U側の電話機30に送信される。
【0112】
これらの案内に対して利用者U側の電話機30において、発注処理「1」を利用者が電話機30のプッシュボタンより入力118として入力する。
発注処理情報「1」が利用者U側の電話機30からコンピュータC側に送信されたことをコンピュータC側が確認したときには、発注番号案内119、サービス終了案内120はコンピュータC側から利用者U側に送信される。そして、コンピュータC側は利用者U側の電話機30の電話回線から切断121として切断される。
【0113】
以上により、実施の形態1では、利用者U側とコンピュータC側との間の対話形式によって、たとえば商品発注業務を行うとき、履歴情報書き込み部27が図2に示すログ情報を図1に示した履歴情報格納部11の特定の書き込み領域に書き込むことができる。また、履歴情報抽出部12は、その書き込まれたログ情報を適宜読み出す。これにより、発注情報に誤りがある場合などに発注業務を円滑に行うことができる。
(コンピュータ側のトラブル時の処理)
次に、コンピュータC側にトラブルが発生したときの処理を説明する。図4のシーケンス図は発注トラブル時における処理を示す図である。図3と同じサービスの概要説明101から利用者の確認指示105までの処理は、詳しい説明を省略する。
【0114】
また図4の説明においては、図1から図3までの符号を参照して説明する。実施の形態1では、利用者が確認OK105の「1」を電話機30のプッシュボタンから入力した後に、コンピュータC側のソフトウェアやデータベース23、テキストファイル25、蓄積音声ファイル26などに障害が発生したとする。
【0115】
この場合には、障害発生130がコンピュータC側にあったことを利用者に知らせるために、コンピュータCは障害発生信号を利用者の電話機30に送信すると、電話回線が切断121として切断される。
【0116】
このように、サービス中に障害が発生した場合に、再現試験、あるいは障害修正後における確認テストが行われる。この場合には、図1の履歴情報格納部11に格納された履歴情報が再生される。これにより、コンピュータC側に障害原因があることを利用者に認識させることができる。また、自動的にテスティングが行えるので、テスト時間が短縮される。
(音声応答サービスの再現)
次に、音声応答サービスの再現を説明する。前述したように、通常のサービスが提供されるときには、利用者Uが電話機30のプッシュボタンから入力した信号が回線制御部14により認識され、そのプッシュボタン信号はサービス実行部17に読み込まれる。
【0117】
一方、音声応答サービスを再生する場合には、切換部20によりサービス実行部17が履歴情報抽出部12に接続される。履歴情報抽出部12は履歴情報格納部11から利用者が過去に利用したサービスを抽出(特定)し、履歴情報格納部11に記録されたプッシュボタンから入力された数値をプッシュボタンの読み込み値として、サービス実行部17に送る。
【0118】
音声合成処理部18はサービス実行部17を介して履歴情報抽出部12により抽出された履歴情報、すなわち、過去の音声応答サービスを再生する。このようにして実施の形態1では、疑似的に音声応答サービスを実行することにより、音声応答サービスを再生することができる。
【0119】
このときの動作を図1、図2および図5の説明を参照して説明する。例として、1994年9月6日にサービスを利用した利用者番号651123のサービスの内容を再生する。
【0120】
このときには、音声合成処理部18によって再生された音声が回線制御部14により、利用者Uの電話機30に送られる。利用者が過去のサービスの内容を聞くことができる。
【0121】
履歴情報抽出部12は、履歴情報格納部11により格納された図2の履歴情報の中から、再生したい利用者の履歴情報を特定する。履歴情報の特定方法については、図10を用いて(利用者履歴の特定をするための動作)の欄にて詳細に説明する。ここでは、図2に示される履歴情報の中、例えば、履歴情報Aが特定される。
【0122】
また、切換部20は、サービス実行部17に履歴情報抽出部12を接続し、履歴情報抽出部12を起動させることにより、図5のサービスストーリにしたがって再生が開始される。
【0123】
ナレーションストーリ出力部15の動作については先に<ナレーションストーリ出力部>にて詳細に説明してあるので、ここでは説明を省略する。
図5の手順番号1および手順番号2では、通常の通りに音声応答サービス部10からサービスの概要説明、利用者番号の入力が読み上げられる。
【0124】
手順番号3の利用者番号の入力では、サービス実行部17は履歴情報抽出部12にプッシュボタンの読み込み指示を行う。履歴情報抽出部12は図2に示した履歴情報の利用者番号「651123」103を読み込み、音声合成処理部18は「ロク ゴ イチ イチ 二 サン」を合成することにより音声データを得る。音声データは回線制御部14により利用者Uの電話機30に送られ、利用者に利用者番号が伝えられる。
【0125】
手順番号5は、通常の通りの動作となる。手順番号6では、利用者からの結果に基づいて処理が分岐されるため、サービス実行部17は履歴情報抽出部12にプッシュボタンの読み込み指示を行う。履歴情報抽出部12は利用者確認「1」105を読み込み、音声合成処理部18は「イチ」を合成することにより音声データを得る。音声データは回線制御部14により、利用者Uの電話機30に送られ、利用者に確認結果が伝えられ、処理は手順番号7へ分岐される。
【0126】
以降の処理の説明を省略するが、回線切断121までのサービスを行うことにより、過去のサービスを再現することができる。
なお、切換部50により音声合成処理部18が疑似回線制御部19に接続された場合には、音声合成処理部18からの音声データは疑似回線制御部19を介してスピーカ33に出力してもよい。
【0127】
また、この例では、音声合成処理部18はプッシュボタンの番号を音声に変換してその番号を利用者に伝えた。例えば、必要に応じてプッシュボタンの番号を音声合成処理部18に送らないことにより、その番号を利用者に伝えないようにすることも可能である。
(利用者履歴を特定するための動作)
次に、利用者履歴を特定するための動作を詳細に説明する。図9は履歴ファイルから利用者の再生したい記録を特定するための処理を示すフローチャートである。利用者履歴を特定するための動作は、履歴情報抽出部12の履歴情報の抽出処理によって行われる。
【0128】
先ず、履歴情報格納部11内の利用年月日の履歴ファイルをオープンする(ST40)。ここでは、図2の履歴ファイルを例示して説明する。この履歴ファイルの終了まで以下の処理を行う。
【0129】
先ず、履歴ファイルから1行を読み込む(ST42)。たとえば、ST42において読み込んだ行に、「回線切断」が記録されている場合には、再生開始位置の可能性がある。このため、行番号1を履歴情報格納部11に記録する(ST43,ST44)。
【0130】
ST42において読み込んだ行に、「回線切断」が記録されている場合(ST45)で、利用者履歴が見つかっている場合には(ST46)、行番号1を再生開始位置と断定する(ST47)。
【0131】
ST42において読み込んだ行に、「利用者番号入力ナレーション」が記録されている場合(ST48)には、次の行からのプッシュボタン入力数値を利用者番号とする(ST49)。
【0132】
ここで、再生したい利用者番号とST49の利用者番号が一致するとき(ST50)には、該当する利用者履歴が見つかったと判断する(ST51)。
上記処理を履歴ファイルの終了するまで行ったあと、利用月日の履歴ファイルをクローズする。これにより、利用者履歴の特定を行うことができる。
【0133】
このように、実施の形態1では、利用者U側とコンピュータC側での対話形式で、たとえば商品発注業務を行うとき、図2に示すログ情報を履歴情報格納部11の特定の書き込み領域に書き込みできる。その書き込まれたログ情報を適宜読み出すことにより、発注情報に誤りがある場合などに発注業務を円滑に行うことができる。
【0134】
また、テレホンサービスなどの音声応答サービスにおける利用者U側とコンピュータC側とのやり取りをログ情報として再生しそのログ情報を利用者に聞かせることにより、利用者のプッシュボタン入力時におけるプッシュボタンの押し間違えなどによる誤操作箇所を追跡できる。
【0135】
例えば、履歴情報格納部11に電話回線の接続、切断の時間、利用者の利用者情報を読み始めた時間および利用者がプッシュボタンから入力を行った時間などの時系列的な情報などが書き込める。このため、利用者の入力ミスなどがある場合に前記情報を再生することにより、誤操作箇所を利用者が容易に認識できる。
【0136】
さらに、自動ティスティングが行われることによりテスト工数を低減できる。<実施の形態2>
図10は本発明の音声応答サービス装置を含む音声応答サービスシステムの実施の形態2を示すブロック図である。人間によってサービスが行われる場合には、相手の様子に従い、声を大きくしたり、ゆっくり話したりする。すなわち、相手が理解し易いように音量が調整される。
【0137】
実施の形態2では、コンピュータが相手の年齢、性別、聞き易さ聞き難さなどの発音状態などの情報により自動的に音質を変更し、動的に利用者に合わせた音質によってサービスを実施する。
【0138】
ここでは、図10に示される構成において、実施の形態1の図1に示される構成とは異なる構成のみを説明する。その他の構成については同一の符号を付し、ここでは詳しい説明を省略する。
【0139】
図10において、サービス実行部17には、属性テーブル40と、状態ルールテーブル41とが接続される。これらのテーブルは図示しないデータベースに設けられる。属性テーブル40は利用者の性別および利用者の年齢区分に応じた音量レベルを設定する。状態ルールデータデース41は利用者の入力動作の状態に応じて音量または話す速度を設定する。
【0140】
図11は図10に示す実施の形態2の主要部を示す構成ブロック図である。図11において、属性テーブル40は、利用者の性別により男性音または女性音が格納された性別ルールテーブル40aと、利用者の年齢により音量レベルが変化した音量テーブル40bとから構成される。
【0141】
性別ルールテーブル40aにおいて、利用者が男性である場合、声の柔らかさを出すために音声合成された女性音が選択される。利用者が女性である場合には、声のめりはりを出すために音声合成された男性音が選択される。
【0142】
音量テーブル40bには、利用者の年齢区分にあった音量レベルがおおまかに設定できる。
たとえば、利用者の年齢が0〜59才では音量レベルが4に設定され、利用者の年齢が60〜69才では音量レベルが5に設定される。利用者の年齢が70〜79才では音量レベルが6に設定され、利用者の年齢が80〜89才では音量レベルが7に設定される。
【0143】
すなわち、たとえば音量レベル1から順に音量レベルを高くし、数値が大きい方が音量が大きくなるように設定される。利用者の性別、年齢区分などにしたがっておおまかな音量が設定される。
【0144】
性別ルールテーブル40a及び音量テーブル40bはおおまかな利用者にあった音量レベルを設定する。状態ルールテーブル41は、音量または声の速度を利用者に合わせて調整する。
【0145】
性別ルールテーブル40a、音量テーブル40b及び状態ルールテーブル41はサービス実行部17dに接続される。サービス実行部17dには音声属性設定イベント発生部42、音声合成処理部18が接続される。
【0146】
例えば、音量が小さく速度が遅いことを表す指示が、プッシュボタンから音声属性設定イベント発生部42に送信された場合には、音声属性設定イベント発生部42は利用者の音声属性を設定するためのイベントを発生する。
【0147】
前記サービス実行部17dは、属性テーブル40のルールをチェックするルールチェック処理部17a、このルールチェック処理部17aの処理出力にしたがって音声属性を設定する音声属性設定部17b、この音声属性設定部17bの音声属性出力にしたがってナレーション文をナレーションストーリ出力部15より出力するナレーション文出力部17cとから成る。
【0148】
状態ルールテーブル41は、音量を1レベルだけ上げるとともに、声の速度を1レベルだけ下げるように設定することができる。
音声合成処理部18は、音声属性設定部17bの出力とナレーション文出力部17cの出力から音声合成処理を行う。
(実施の形態2の動作)
次に、実施の形態2の動作を説明する。たとえば利用者の属性がデータベースに存在する場合に、利用者番号などから利用者属性を得たり、任意の利用者が自分の属性を電話機30のプッシュボタンより入力すると、音声属性設定イベント発生部15は、音声属性の設定イベントを発生する。
【0149】
ルールチェック処理部17aは、音声属性設定イベント発生部15からの出力によって性別ルールテーブル40a、音量テーブル40bを参照して、参照したテーブル情報を音声属性設定部17bに出力する。音声属性設定部17bは利用者の音声の属性を設定する。
【0150】
たとえば、男性、61才がこの音声応答サービスを利用する場合には、性別ルールテーブル40a、音量テーブル40bが参照され、音声性別を柔らかにするため、女性音が設定され、音量レベルが5に設定される。
【0151】
また、音声属設定イベント発生部15において、利用者の入力操作が発生した場合には、ルールチェック処理部17aは状態ルールテーブル41を参照する。状態ルールテーブル41のテーブル情報から音声属性設定部17bは音声属性を設定する。
【0152】
例えば、利用者が入力誤りをしたときには、音声速度を1レベルだけ遅くし、音量を1レベルだけ大きくする。
すなわち、ナレーションが速く、しかも音量が小さく、音声を聞き取ることができないと考えられる。この場合には、ゆっくりしかも大きく話すように音質を変更する。
【0153】
一方、利用者に適した音声の属性設定コマンドが、音声属性設定部17bから出力され、ナレーション文出力部17cからナレーションが出力されると、音声合成処理部18は利用者に適した音質に合成する。
【0154】
このように、実施の形態2では、利用者の年齢区分、性別、聞き易さ聞き難さなどの発音状態などの情報により自動的に音質を変更することにより、どのような利用者に対しても聞き易い音質で音声応答サービスが行える。
【0155】
これにより、聞き間違いなどによる誤操作をなくして利用者サービスの向上を図ることができる。
また、実施の形態2を商品の受注業務、予約業務、資料請求業務に適用した場合でも、利用者の音声による誤認識が少なくなり、これらの業務をスムースに行うことができる。
【0157】
【発明の効果】
本発明によれば、自動的にログ情報から過去のサービスを再生し、容易にそのサービスの内容を確認することができる
【図面の簡単な説明】
【図1】本発明の音声応答サービス装置を含む音声応答サービスシステムの実施の形態1を示すブロック図である。
【図2】本発明の実施の形態1の履歴情報を示す図である。
【図3】実施の形態1のナレーションストーリ通りにサービスが実行されるシーケンスを示す図である。
【図4】実施の形態1のサービスの実行途中で障害が発生した例を示す図である。
【図5】実施の形態1のサービス内容を記述した図である。
【図6】実施の形態1の音声合成方式を例示した図である。
【図7】音声合成方式を採用した音声合成処理部の具体的な構成例を示す図である。
【図8】図7に示す音声合成方式によって音声合成を行う具体的例を示す図である。
【図9】履歴ファイルから利用者の再生したい記録を特定するための処理を示すフローチャートである。
【図10】本発明の音声応答サービス装置を含む音声応答サービスシステムの実施の形態2を示すブロック図である。
【図11】図10に示す実施の形態2の主要部を示す構成ブロック図である。
【符号の説明】
10 音声応答サービス部
11 履歴情報格納部
12 履歴情報抽出部
14 回線制御部
15 ナレーションストーリ出力部
16 ナレーションストーリ解析部
17 サービス実行部
17a ルールチェック処理部
17b 音声属性設定部
17c ナレーション文出力部
18 音声合成処理部
19 疑似回線制御部
20 切換部
22 データベースアクセス部
23 データベース
25 テキストファイル
26 蓄積音声ファイル
27 履歴情報書き込み部
30 電話機
31 言語処理部
32 音響処理部
33 スピーカ
34 文章解析部
35 単語辞書
36 読み・韻律記号付与部
37 抑揚生成部
38 波形合成部
39 音素片部
40 属性テーブル
41 状態ルールテーブル
42 音声属性設定イベント発生部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a voice response service apparatus. In particular, the present invention relates to a voice response service apparatus that quickly reproduces history information and changes the sound quality in accordance with attributes such as the gender and age classification of a telephone service user and the operation environment of the other party.
[0002]
[Prior art]
A telephone service is known as a voice response service device that automatically responds by a computer.
[0003]
In this telephone service, sound is played according to a preset sound quality (speed, volume, sex, or background music BGM). This type of voice response service device sets, for example, a standard sound quality suitable for a specific age group when a telephone service is provided.
[0004]
Such a voice service device is described in, for example, Japanese Patent Application Laid-Open No. 59-181767 or Japanese Patent Application Laid-Open No. 3-160868. The voice response service device described in these publications provides services such as deposit balance inquiry by using a voice recognition device in the voice service device.
[0005]
The device disclosed in Japanese Patent Application Laid-Open No. 61-235940 corrects the output level so that the audio output level at the telephone is always a constant value. Thereby, the user can listen to audio | voice information easily.
[0006]
However, in the apparatus disclosed in Japanese Patent Application Laid-Open No. 61-235940, it is necessary to specify the volume and sex from the user side in order to correct the output level. In other words, since correction is performed manually, the work is difficult.
[0007]
In addition, the remaining gazette apparatuses do not provide services due to sound quality tailored to the user. In this type of voice response service device, it is necessary to make fine adjustments so that the other party can easily understand by increasing the voice according to the other party who is talking or speaking slowly. For this reason, there has been a demand for a voice response service device that automatically changes the sound quality depending on the age and sex of the user.
[0008]
Further, the voice response service device can carry out mail order sales of products by using a telephone service. This voice response service apparatus normally collects user information and product input information from the user as history information.
[0009]
In the voice response service device, when there is an inquiry from the user due to an order trouble such as a product ordered by the user, a quantity, an amount, etc., an operation of checking the user's operation by tracking past history information is performed. It was necessary.
[0010]
Further, the voice response service device manually reproduces the user's operation based on the history information when a failure or the like occurs.
[0011]
[Problems to be solved by the invention]
However, in the voice response service device described above, for example, when an order trouble occurs, the history information has to be reproduced manually. This not only took a lot of time, but also increased labor costs. In addition, it was necessary to automatically track the erroneous operation location.
[0012]
Furthermore, in this type of voice response service device, the cause of the ordering trouble and the test for smoothly performing the voice response service have been manually performed, so that it took a considerable amount of test man-hours during development and maintenance.
[0013]
Accordingly, an object of the present invention is to provide a highly comfortable service by changing sound quality in accordance with attributes such as sex and age classification of a telephone service user and the operation environment of the other party.
[0014]
Further, the present invention is to reproduce a past service from history information and easily confirm the contents of the service.
Furthermore, an object of the present invention is to reduce test man-hours and labor costs during development and maintenance.
[0015]
[Means for Solving the Problems]
The voice response service apparatus according to the present invention employs the following means in order to solve the above-described problems.
[0016]
  The present invention relates to a voice response service apparatus that processes a voice response service according to a push button signal input from a user based on a voice response service processing procedure, and the voice response service processing procedure for each user. Log information storage means for storing, in time series, log information of the voice response service including push button signal information input from the user according to the information, and specified from the log information stored in the log information storage means Log information extracting means for extracting log information based on the push button signal information, and voice response service according to the push button signal information of the log information extracted by the log information extracting means based on the processing procedure of the voice response service And a voice response service reproducing means for reproducing the voice response service device.
[0017]
  In the present invention, the log information stored in the log information storage means includes at least one time information of a telephone line connection time or a telephone line disconnection time, and the log information extraction means includes the log information storage means. The reproduction start position is determined based on the time information stored in the means.
[0018]
  In the present invention, the log information storage means further comprises voice synthesis processing means for storing the push button signal information as character information and synthesizing the character information of the push button signal into speech, and the voice response service The reproduction means reproduces the voice response service including the voice synthesized by the voice synthesis processing means on the push button signal information of the log information extracted by the log information extraction means.
  In the present invention, the push button signal information of the log information stored in the log information storage means includes the user number of the user input from the user according to the processing procedure of the voice response service, The log information extraction unit extracts log information to be reproduced by specifying the log information including the corresponding user number from the log information stored in the log information storage unit.
[0019]
  Speech synthesis processingmeansIs, for example, a speech rule synthesis method that synthesizes speech from a character string.
Perform synthesis. In addition to this, there are a waveform encoding method for encoding a speech waveform using the characteristics of a speech signal, an analysis synthesis method for encoding a speech signal according to a speech generation model, and the like.
[0023]
  BookIn the present invention, the device controls a telephone line and transmits a push button signal and line connection notification information from a user.Voice response service playback meansYou may include a line controller that outputs toYes.
[0024]
  BookIn the invention, the push button signal and the line connection notification information from the line control unitVoice response service playback meansWhen outputting toVoice response service playback meansIs connected to the line control unit and the log information is extracted.meansWhen playing back log information extracted byVoice response service playback meansThe log information extractionmeansThe device may be provided with a switching unit connected toYes.
[0025]
  BookIn the invention,Voice response service playback meansYou may have a narration information sending part that sends narration information toYes. BookIn the invention,Voice response service playback meansExecutes a service according to the narration information from the narration information sending unit, and
Provide users with services according to the value of the buttonThe
[0026]
  BookIn the invention,Voice response service playback meansWhen the voice response service is executed, the narration information from the narration information sending unit is stored as log information in the log information storage.meansA log information writer for writing toYes.
[0027]
  BookIn the invention,Voice response service playback meansWhen the voice response service is executed, a narration information from the narration information sending unit may be converted into character information, and a text file unit may be provided to write the converted character information as file format text.Yes.
[0028]
  BookIn the invention, the speech synthesis processmeansMay convert the character information written in the text file part into voice information.Yes. BookIn the invention, the speech synthesis processmeansMay convert the narration information from the narration information sending unit into voice information. The speech synthesis processmeansIt may also contain a stored sound file part that stores the sound information converted byYes.
[0029]
  BookIn the invention, the log information storagemeansIncludes a log information writing unit for writing log information. SaidVoice response service playback meansIs stored in the log information by the log information writing unit.meansYou can play back the log information written inYes.
[0030]
  BookIn the invention, the speech synthesis processmeansIs connected to the pseudowire controller that controls the pseudowire.
The converted voice information may be sent to a speaker through the pseudo-wire control unit.Yes.
[0034]
  In addition, you may combine suitably each invention demonstrated above. According to the present invention, log information storagemeansStores a plurality of processing contents performed in an interactive manner with a user by voice response as log information indicating a record of temporal transition and identification information for identifying each of the plurality of processing contents As part of the content of. Voice response service playback meansIs, KnowledgeThe interactive processing content of the log information corresponding to the other information is read from the log information storage unit, and the read processing content is reproduced as voice.
[0035]
Thereby, the past service can be automatically reproduced from the log information, and the contents of the service can be easily confirmed.
Further, the processing content can be specified by the time information of connection / disconnection of the telephone line included in the log information.
[0036]
  In addition, push button signals received from users via telephone lines are stored as log information as log information.meansIs remembered. Therefore, log information can be reproduced by the stored push button signal.
[0037]
  Also, speech synthesis processingmeansIs the log information storagemeansSynthesize speech to be responded from character information stored in.
[0039]
  Also, log information extractionmeansThe log information storagemeansFrom the log information stored inBased on specific push button signal informationWhen log information is extracted,Voice response service playback meansIs the log information extractionmeansLog information extracted byPlay voice response service according to push button signal information. The speech synthesis processmeansSaidVoice response service playback meansVoice is synthesized from the log information sent from. Thereby, specific processing content can be reproduced from the log information.
[0040]
  The line control unit controls the telephone line and sends a push button signal and line connection notification information from the user.Voice response service playback meansOutput to. Dialogue between the user and the voice response service apparatus is smoothly performed.
[0041]
  The switching unit isVoice response service playback meansIs connected to the line control unit, so that a normal service is provided. The switching unit isVoice response service playback meansThe log information extractionmeansIt is possible to replay past services from log information.
[0042]
  Also,Voice response service playback meansCan execute the service according to the narration information from the narration information sending unit. Also, the aboveVoice response service playback meansExecutes a service according to the narration information from the narration information transmission unit, and provides the user with a service according to the value of the push button signal. Thereby, since the dialogue between the user and the voice response service device can be performed according to the narration information, the burden on the user can be reduced.
[0043]
  Also, the aboveVoice response service playback meansWhen executing the voice response service, the log information writing unit stores the narration information from the narration information sending unit as the log information.meansWrite to. For example, if there is an error in order information, log information is stored in log information.meansIt is possible to track the erroneous operation location by reading from.
[0044]
In addition, since the text file portion converts the narration information from the narration information sending portion into character information and writes it as file format text, the character information can be synthesized with the speech information by, for example, speech rule synthesis.
[0045]
  Also, speech synthesis processingmeansCan convert the narration information from the narration information sending section into voice information, and the stored sound file section can write the converted voice information.
[0046]
  Also,Voice response service playback meansLog information is stored by the log information writermeansThe log information written in is played back. As a result, it is possible to reduce the test time of the reproduction test performed when a failure occurs.
[0047]
  Also, speech synthesis processingmeansSends audio information to the speaker via the pseudo-wire control unit. As a result, an error in log information is recognized by voice by the user by the output of the speaker.
[0052]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of a voice response service device according to the present invention will be described below in detail with reference to the drawings.
<Embodiment 1>
FIG. 1 is a block diagram showing Embodiment 1 of a voice response service system including a voice response service device of the present invention.
[0053]
The system according to the first embodiment automatically reproduces the dialog processing between the user and the computer from the history information storage unit and applies it to overtime work such as product ordering work, reservation work, data request work and bank transfer work. To reduce labor costs.
[0054]
In FIG. 1, the voice response service system includes a computer C operating as a voice response service device and a telephone side U connected to the computer C and used by a user. The voice response service system is used for telephone service business.
[0055]
For example, the voice response service system performs a variety of tasks by outputting a push button signal to the computer C from the telephone side U such as a home or office and performing interactive processing between the computer C and the telephone side U. .
[0056]
The computer C includes a voice response service unit 10 surrounded by a dotted line, a history information extraction unit 12, a pseudo line control unit 19, and a speaker 33.
The voice response service unit 10 operates when performing a telephone service during normal times. The voice response service unit 10 includes a narration story output unit 15, a history information storage unit 11, a switching unit 20, a line control unit 14, a service execution unit 17, and a voice synthesis processing unit 18.
[0057]
FIG. 5 is a diagram describing service contents. Here, the service content is, for example, a product ordering operation. This service content is called a narration story. The narration story output unit 15 outputs a narration story.
[0058]
FIG. 2 is a diagram showing history information stored in the history information storage unit 11. An example of the history information recorded in FIG. 2 when the voice response service is performed according to the narration story of FIG. 5 is shown. The history information storage unit 11 records service contents with time.
[0059]
That is, the history information storage unit 11 changes the service contents over time from the start of the service to the end of the service provided from the connection of the telephone line applied to the product order receiving system to the disconnection of the telephone line by the user at time A. Log information (history information) is stored. The history information storage unit 11 records time information such as a telephone line connection time, a disconnection time, a time when a computer starts reading narration, and a time when a user inputs a push button.
[0060]
3 and 4 are diagrams showing an operation sequence between the user side (U) and the computer side (C). FIG. 3 is a diagram showing a sequence in which a service is executed according to the narration story of FIG. FIG. 4 is a diagram illustrating an example in which a failure occurs during service execution.
[0061]
The history information extraction unit 12 is connected to the history information storage unit 11 and operates when a service is reproduced. The history information extraction unit 12 extracts touch phone data input by the user from the history information stored in the history information storage unit 11.
A switching unit 20 is connected to the history information extraction unit 12.
[0062]
The switching unit 20 is composed of contacts. When the line control unit 14 is connected to the service execution unit 17, that is, when a normal service is provided, a push button signal input by the user is transmitted from the telephone 30 to the service execution unit. 17 is read.
[0063]
When the history information extraction unit 12 is connected to the service execution unit 17, that is, when a past service is reproduced, the switching unit 20 transfers the touch-phone data input by the user from the history information storage unit 11 to the history information extraction unit 12. To the service execution unit 17. The service execution unit 17 executes the past service from the history information extraction unit 12. The voice synthesis processing unit 18 reproduces the service performed in the past from the service execution unit 17 by voice.
[0064]
The speech synthesis processing unit 18 synthesizes speech from a character string representing pronunciation by, for example, a rule synthesis method for synthesizing speech from a character string in the speech synthesis method shown in FIG. As shown in FIG. 6, the voice synthesis method used in the voice response service system includes a waveform coding method, an analysis synthesis method, a rule synthesis method, and the like.
[0065]
The rule composition method is illustrated in FIG. 7 and FIG. The rule synthesizing method is a method of converting a kana-kanji mixed character string into speech by analyzing a sentence and synthesizing a signal waveform composed of the analyzed character string. Since this rule composition method requires less information than other methods, the number of output words can be infinite, and this method is suitable for a voice response service system.
[0066]
The waveform encoding method is a method of synthesizing words by recording in advance the words to be read out and connecting the words together. The analysis and synthesis method is a speech synthesis method that encodes a speech signal based on a speech generation model, and speech can be synthesized by these methods.
[0067]
In the telephone service, in addition to the sound generation by the voice synthesis method, the sound by playing the accumulated sound is also used. The stored voice generally has better quality than the regular synthesized voice, but the operability is deteriorated because the recording operation is required to change the contents. This stored voice is good for reading out invariant content.
[0068]
On the other hand, the rule-synthesized sound is suitable for reproducing irregular type sounds such as temporary sentences, irregular type sentences, and partially variable documents.
FIG. 7 is a diagram illustrating a specific configuration example of a speech synthesis processing unit employing a speech synthesis method. In FIG. 7, the speech synthesis processing unit 18 includes a language processing unit 31 and an acoustic processing unit 32. The language processing unit 31 includes a sentence analysis unit 34, a word dictionary 35, and a reading / prosodic symbol assignment unit 36.
[0069]
The sentence analysis unit 34 divides the inputted sentence into analysis units, performs word division by collating the divided sentence with words stored in the word dictionary 35, and sets reading, accent type, and grammar information for each word. To do. The reading / prosodic symbol giving unit 36 adds readings and prosodic symbols based on the information obtained from the sentence analyzing unit 34. The prosodic symbols are, for example, poses, phrase accents, intonations, and the like.
[0070]
In this language processing unit 31, when the reading / prosodic symbol giving unit 36 gives readings and prosodic symbols, the acoustic processing unit 32 adds inflection and outputs sound by waveform synthesis or the like. The acoustic processing unit 32 includes an inflection generation unit 37, a waveform synthesis unit 38, and a phoneme piece unit 39 that is a phoneme database. The intonation generating unit 37 generates an inflection pattern representing the time length for each phoneme and the pitch of the voice based on the reading and prosodic symbols. The waveform synthesizing unit 38 reads the phoneme piece data stored in the phoneme piece unit 39, and synthesizes the speech waveform by smoothly connecting the phoneme piece data according to the phoneme time length and the inflection pattern.
[0071]
The sound processing unit 32 outputs the sound whose waveform is synthesized from the waveform synthesis unit 38 to the speaker 33, and the speaker 33 outputs, for example, “Colewa, Onsego Sades”.
[0072]
FIG. 8 is a diagram showing a specific example in which speech synthesis is performed by the speech synthesis method shown in FIG. For example, speech synthesis will be described by taking the sentence “This is speech synthesis” shown in FIG. 8 as an example. First, the sentence analysis unit 34 inputs the sentence and performs word division. The sentence analysis unit 34 divides the sentence into words such as “this / ha /, voice / synthesis / de /”.
[0073]
Next, the sentence analysis unit 34 sets a phrase. The sentence analysis unit 34 sets a phrase such as “This is speech synthesis.”
The reading / prosodic symbol assigning unit 36 assigns a reading based on the result of the sentence analyzing unit 34 and assigns a prosodic code representing a pose, a phrase accent, and intonation. The reading is "Kore / Wa /, Oh,Nsey / Gosei / Death /. " The prosodic code is "Kolewa, Onsego,-Sedes. "
[0074]
Next, in the acoustic processing unit 32, the intonation generating unit 37 generates an inflection pattern indicating the pitch of the sound, and the waveform synthesis unit 38 reads out the phoneme piece data from the phoneme piece unit 39, according to the phoneme time length information and the intonation pattern information. A speech waveform is synthesized by connecting phoneme data.
[0075]
Audio data is output from the acoustic processing unit 32 by performing the above processing. (Description of normal service operation)
Next, the operation | movement at the time of the normal service of Embodiment 1 of the voice response service system comprised in this way is demonstrated.
[0076]
First, the switching unit 20 connects the line control unit 14 to the service execution unit 17. When the narration story output unit 15 outputs the narration story to the narrative story analysis unit 16, the narration story analysis unit 16 analyzes the narration story.
[0077]
In accordance with the analyzed narration story, the service execution unit 17 instructs the voice synthesis processing unit 18 to output the voice, instructs the history information writing unit 27, instructs the line control unit 14 to read the push button, and reads the result. Processing branching, an instruction to access the database access unit 22, and the like are performed. The push button signal input by the user is read from the telephone 30 to the service execution unit 17.
[0078]
For audio output, the service is executed using the accumulated sound file 26, the text file 25, etc. according to the narration story.
The database 23 includes a user database in which information about users is written, a product database in which product information is written, or an order database in which order information is written.
[0079]
The database access unit 22 performs write / read processing of the database 23. The text file 25 stores text information in advance, and the stored voice file 26 stores stored voice information. The history information writing unit 27 writes the service content instructed by the service execution unit 17 in the history information storage unit 11. The speech synthesis processing unit 18 synthesizes speech by the speech synthesis method already described in FIGS.
[0080]
Note that the voice data output from the voice synthesis processing unit 18 by the switching unit 50 can also be output to the telephone 30 via the line control unit 14. At this time, the contents of the voice response service can be modeled without connecting to the telephone line, and those models can be analyzed.
[0081]
The voice data from the voice synthesis processing unit 18 can also control the pseudo-wire control unit 19 to cause the speaker 33 to ring. The operator can listen to the service content as voice data.
<Narration story output section>
Next, the narration story output unit 15 will be described in detail according to the procedures from procedure number 1 to procedure number 23 shown in FIG.
[0082]
In the narration story output unit 15, the content of the narration is determined according to the procedure from procedure number 1 to procedure number 23.
That is, in procedure number 1, since the stored voice file “open.pcm” is specified in the service outline, “open.pcm” is read from the stored sound file 26 in FIG. 1 and “open.pcm” is the voice response. Read from service unit 10.
[0083]
In the procedure number 2, the voice response service unit 10 reads out the input narration of the user number of the narration story output unit 15, for example, “Please enter the user number”.
[0084]
In procedure number 3, when the user number is input from the push button of the telephone 30 on the user side, the contents of the push button are read and the user number is input to the voice response service unit 10.
[0085]
In procedure number 4, the voice response service unit 10 accesses the user database of the database 23 when there is a user inquiry.
In procedure number 5, the result of querying database 23 in procedure number 4 is used as a narration “XX number, are you like?”, Which is the confirmation of the user number and user number of narration story output unit 15. , Read from the voice response service unit 10.
[0086]
In procedure number 6, the voice response service unit 10 branches the process based on the confirmation result from the user. In this procedure number 6, for example, when the user selects “1” with the push button of the telephone 30, the process proceeds to the process of the procedure number 7. For example, when the user selects “9” with the push button of the telephone 30, the process of the procedure number 2 is executed again.
[0087]
In the procedure number 7, the voice response service unit 10 reads out the narration “Please input the product number”, which is a narration input guidance narration of the narration story output unit 15.
[0088]
In procedure number 8, for example, when a product number is input to the voice response service unit 10 by a push button, the voice response service unit 10 reads the product number.
In procedure number 9, the voice response service unit 10 accesses the product database in the database 23 when there is a product inquiry.
[0089]
In the procedure number 10, the result of querying the database in the procedure number 9 is used as a voice response service unit 10 as a narration “XX number, OO-sama?” Which is a product number confirmation narration of the narration story output unit 15. Read more.
[0090]
In procedure number 11, the voice response service unit 10 branches the process based on the confirmation result from the user.
In this procedure number 11, for example, when the user selects “1” with the push button of the telephone 30, the process proceeds to the process of the procedure number 12.
[0091]
For example, when the user selects “9” with the push button of the telephone 30, the process of the procedure number 7 is executed again.
In the procedure number 12, the voice response service unit 10 reads out the narration “Please input the number”, which is the number input narration of the narration story output unit 15.
[0092]
In procedure number 13, for example, when the number is input to the voice response service unit 10 by a push button, the voice response service unit 10 reads the number.
In the procedure number 14, the voice response service unit 10 reads out the narration “Are you sure?”, Which is an input completion confirmation narration, in the narration story output unit 15.
[0093]
In procedure number 15, the voice response service unit 10 branches the process based on the confirmation result from the user.
In this procedure number 15, for example, when the user selects “1” with the push button of the telephone 30, the process proceeds to the process of procedure number 16.
[0094]
For example, when the user selects “9” with the push button of the telephone 30, the process of the procedure number 7 is executed again.
In the procedure number 16, the voice response service unit 10 reads “Are you sure?” Which is the input confirmation narration of the narration story output unit 15.
[0095]
In procedure number 17, the voice response service unit 10 branches the process based on the confirmation result from the user.
For example, when the user selects “1” with the push button of the telephone 30, the process proceeds to the process of the procedure number 18.
[0096]
Further, for example, when the user selects “9” with the push button of the telephone 30, the process of the procedure number 7 is performed.
In the procedure number 18, since the text file “order.txt” is designated as the order contents repeated narration in the narration story output unit 15, the voice response service unit 10 reads out the narration read from the text file 25.
[0097]
In the procedure number 19, the voice response service unit 10 reads out the narration “Are you sure?” Which is the order confirmation narration of the narration story output unit 15.
[0098]
At this time, in the procedure number 20, the voice response service unit 10 branches the process based on the confirmation result from the user.
In this procedure number 20, for example, when the user selects “1” with the push button of the telephone 30, the procedure of the procedure number 21 is performed.
[0099]
Further, for example, when the user selects “9” with the push button of the telephone 30, the process of the procedure number 23 is executed.
In the procedure number 21, the voice response service unit 10 reads out the narration “Order number is OO?” Which is the order number narration of the narration story output unit 15.
[0100]
In procedure number 22, order processing is performed. The contents of the received order are written into the order database in the database 23.
In procedure number 23, “close.pcm”, which is the stored voice, is designated as the service end narration of the narration story output unit 15, and is read from the stored sound file 26 and read out by the voice response service unit 10.
[0101]
According to the voice response service device of FIG. 5 described above, the processing between the telephone 30 on the user side U and the voice response service unit 10 of the computer C can be reliably performed in an interactive manner.
(Description of sequence in FIG. 3)
The processing of FIG. 3 will be described using the narrative story output unit 15 of FIG. 1 described above.
[0102]
For example, on the user U side, when the user number “651123” is input as the input 103 by the push button of the telephone 30, the user number “651123” is transmitted to the computer C side.
The transmission information having the user number “651123” transmitted to the computer C side is confirmed by the line control unit 14 on the computer C side, and then the narration story output unit 15 outputs the narration story 104. Then, a user number / user name confirmation guide 104 is transmitted to the telephone 30 on the user U side.
[0103]
On the other hand, on the computer C side, as shown in FIG. 3, after the line controller 14 confirms the confirmation ok of the user number / user name sent from the user U side, the computer C side sends the user U side information. A narration story 106 is output from the narration story output unit 15 in order to output a product number input guidance instruction to the telephone 30.
[0104]
The narration story output unit 15 outputs the narration story to the narration story analysis unit 16, and the narration story analysis unit 16 analyzes the narration story.
[0105]
The service execution unit 17 executes the service using the database 23 or the files 25 and 26 according to the narration story analyzed by the narration story analysis unit 16.
(Process when ordering)
Further, the telephone 30 on the user U side inputs the product number “321” from the push button of the telephone 30 according to the product number input instruction guidance 106 sent from the narration story output unit 15 on the computer C side. To do. This product number “321” is code information representing a specific product.
[0106]
When the user U inputs the product number “321” from the telephone 30 as the input 107 to the computer C side, the line control unit 14 on the computer C side confirms the product number “321”. 321 "is confirmed to be in the product database of the database 23. Then, a confirmation instruction guide for the product number “321” is transmitted as transmission 108 from the computer C side to the telephone 30 on the user U side.
[0107]
When the telephone 30 on the user U side receives the confirmation instruction guidance for the product number “321” from the computer C side, it indicates that the product ordered by himself / herself is not different from the product represented by the product number “321”. Confirmation information “1” is input from a push button of the telephone 30.
[0108]
Next, a product quantity input guide 110 is transmitted from the computer C side to the telephone 30 on the user U side.
The telephone 30 on the user U side receiving the quantity input guide 110 inputs the number of products to be ordered, for example, “3” as an input 111 from the push button of the telephone 30.
[0109]
When the number information of products to be ordered is transmitted from the user U side to the computer C side, the computer C side confirms that there is a stock of products in the product database of the database 23, and the number confirmation information 112 of the products. Is transmitted from the computer C side to the telephone 30 on the user U side.
[0110]
At this time, the telephone set 30 on the user U side inputs the number-confirmed information “1” as an input 114 from the push button of the telephone set 30.
When the input completion confirmation guide 114 is transmitted from the computer C side to the telephone 30 on the user U side, an intention to complete the input, for example, “1”, an end instruction is input as an input 115 from the push button of the telephone 30, and the end An instruction is transmitted from the user U side to the computer C side.
[0111]
When the above response instruction is performed between the telephones 30 on the computer C side and the user U side, the order content confirmation guide 116 and the order confirmation guide 117 of the narration story output unit 15 are displayed on the computer C in order to confirm the intention of ordering. Is transmitted from the side to the telephone 30 on the user U side.
[0112]
In response to these guidance, on the telephone 30 on the user U side, the user inputs the ordering process “1” as an input 118 from the push button of the telephone 30.
When the computer C confirms that the order processing information “1” is transmitted from the telephone 30 on the user U side to the computer C side, the order number guide 119 and the service end guide 120 are sent from the computer C side to the user U side. Sent. Then, the computer C side is disconnected as a disconnection 121 from the telephone line of the telephone 30 on the user U side.
[0113]
As described above, in the first embodiment, the log information shown in FIG. 2 is shown in FIG. 1 by the history information writing unit 27 when, for example, a product ordering operation is performed in the interactive form between the user U side and the computer C side. The history information storage unit 11 can write to a specific writing area. Further, the history information extracting unit 12 reads the written log information as appropriate. Thereby, when there is an error in the ordering information, the ordering work can be performed smoothly.
(Troubleshooting on the computer side)
Next, processing when trouble occurs on the computer C side will be described. The sequence diagram of FIG. 4 is a diagram showing processing at the time of ordering trouble. The detailed description of the processes from the service outline description 101 to the user confirmation instruction 105 in FIG. 3 is omitted.
[0114]
4 will be described with reference to the reference numerals in FIGS. In the first embodiment, after the user inputs “1” of confirmation OK 105 from the push button of the telephone 30, a failure occurs in the software on the computer C side, the database 23, the text file 25, the stored voice file 26, and the like. To do.
[0115]
In this case, when the computer C transmits a failure occurrence signal to the user's telephone 30 in order to notify the user that the failure occurrence 130 is on the computer C side, the telephone line is disconnected as a disconnection 121.
[0116]
As described above, when a failure occurs during the service, a reproduction test or a confirmation test after correcting the failure is performed. In this case, the history information stored in the history information storage unit 11 in FIG. 1 is reproduced. This allows the user to recognize that there is a failure cause on the computer C side. Also, since testing can be performed automatically, the test time is shortened.
(Reproduction of voice response service)
Next, reproduction of the voice response service will be described. As described above, when a normal service is provided, a signal input from the push button of the telephone 30 by the user U is recognized by the line control unit 14, and the push button signal is read into the service execution unit 17.
[0117]
On the other hand, when the voice response service is reproduced, the service execution unit 17 is connected to the history information extraction unit 12 by the switching unit 20. The history information extraction unit 12 extracts (identifies) services that the user has used in the past from the history information storage unit 11, and uses the numerical value input from the push button recorded in the history information storage unit 11 as the read value of the push button. To the service execution unit 17.
[0118]
The voice synthesis processing unit 18 reproduces the history information extracted by the history information extraction unit 12 via the service execution unit 17, that is, the past voice response service. As described above, in the first embodiment, the voice response service can be reproduced by executing the voice response service in a pseudo manner.
[0119]
The operation at this time will be described with reference to FIG. 1, FIG. 2, and FIG. As an example, the content of the service of the user number 651123 that used the service on September 6, 1994 is reproduced.
[0120]
At this time, the voice reproduced by the voice synthesis processing unit 18 is sent to the telephone 30 of the user U by the line control unit 14. Users can listen to the contents of past services.
[0121]
The history information extraction unit 12 specifies the history information of the user who wants to reproduce from the history information of FIG. 2 stored by the history information storage unit 11. The method for specifying history information will be described in detail in the column (operation for specifying user history) with reference to FIG. Here, for example, history information A is specified from the history information shown in FIG.
[0122]
The switching unit 20 connects the history information extraction unit 12 to the service execution unit 17 and starts the history information extraction unit 12 to start reproduction according to the service story of FIG.
[0123]
Since the operation of the narration story output unit 15 has been described in detail in <Narration Story Output Unit> above, description thereof is omitted here.
In the procedure number 1 and the procedure number 2 in FIG. 5, the voice response service unit 10 reads out the outline of the service and the input of the user number as usual.
[0124]
When the user number of procedure number 3 is input, the service execution unit 17 instructs the history information extraction unit 12 to read a push button. The history information extraction unit 12 reads the user number “651123” 103 of the history information shown in FIG. 2, and the voice synthesis processing unit 18 synthesizes “Rokugoichiichisan” to obtain voice data. The voice data is sent to the telephone U of the user U by the line control unit 14 and the user number is transmitted to the user.
[0125]
Procedure number 5 is the normal operation. In procedure number 6, since the process branches based on the result from the user, the service execution unit 17 instructs the history information extraction unit 12 to read a push button. The history information extraction unit 12 reads the user confirmation “1” 105, and the speech synthesis processing unit 18 synthesizes “1” to obtain speech data. The voice data is sent to the telephone 30 of the user U by the line control unit 14, the confirmation result is transmitted to the user, and the process branches to the procedure number 7.
[0126]
Although description of the subsequent processing is omitted, by performing the service up to the line disconnection 121, the past service can be reproduced.
When the voice synthesis processing unit 18 is connected to the pseudo-line control unit 19 by the switching unit 50, the voice data from the voice synthesis processing unit 18 may be output to the speaker 33 via the pseudo-line control unit 19. Good.
[0127]
Further, in this example, the speech synthesis processing unit 18 converts the push button number into speech and transmits the number to the user. For example, it is possible to prevent the number from being transmitted to the user by not sending the push button number to the speech synthesis processing unit 18 as necessary.
(Operation to specify user history)
Next, the operation for specifying the user history will be described in detail. FIG. 9 is a flowchart showing a process for specifying a record the user wants to reproduce from the history file. The operation for specifying the user history is performed by the history information extraction process of the history information extraction unit 12.
[0128]
First, a history file of the use date in the history information storage unit 11 is opened (ST40). Here, the history file in FIG. 2 will be described as an example. The following processing is performed until the end of the history file.
[0129]
First, one line is read from the history file (ST42). For example, if “line disconnection” is recorded in the line read in ST42, there is a possibility of the playback start position. For this reason, line number 1 is recorded in the history information storage unit 11 (ST43, ST44).
[0130]
If “line disconnection” is recorded in the line read in ST42 (ST45), and a user history is found (ST46), line number 1 is determined as the reproduction start position (ST47).
[0131]
When “user number input narration” is recorded in the line read in ST42 (ST48), the push button input numerical value from the next line is set as the user number (ST49).
[0132]
Here, when the user number to be reproduced matches the user number of ST49 (ST50), it is determined that the corresponding user history has been found (ST51).
After performing the above processing until the end of the history file, close the history file of the usage date. Thereby, the user history can be specified.
[0133]
As described above, in the first embodiment, the log information shown in FIG. 2 is stored in a specific writing area of the history information storage unit 11 when, for example, a product ordering operation is performed in an interactive manner between the user U side and the computer C side. Can write. By reading the written log information as appropriate, the ordering operation can be performed smoothly when there is an error in the ordering information.
[0134]
In addition, when a user pushes a push button, the user pushes the push button when the user pushes the push button. It is possible to track erroneous operation parts caused by mistakes.
[0135]
For example, the history information storage unit 11 can write time-series information such as telephone line connection / disconnection time, user's user information start time, and user's input from a push button. . For this reason, when there is an input error of the user, the user can easily recognize the erroneous operation location by reproducing the information.
[0136]
Furthermore, test man-hours can be reduced by performing automatic tasting. <Embodiment 2>
FIG. 10 is a block diagram showing Embodiment 2 of the voice response service system including the voice response service device of the present invention. When a service is provided by a human, the voice is louder or spoken slowly according to the other person's situation. That is, the volume is adjusted so that the other party can easily understand.
[0137]
In the second embodiment, the computer automatically changes the sound quality according to information such as the other party's age, gender, and the state of pronunciation such as ease of hearing, and dynamically implements the service with sound quality adapted to the user. .
[0138]
Here, only the configuration different from the configuration shown in FIG. 1 of the first embodiment in the configuration shown in FIG. 10 will be described. The other components are denoted by the same reference numerals, and detailed description thereof is omitted here.
[0139]
In FIG. 10, an attribute table 40 and a state rule table 41 are connected to the service execution unit 17. These tables are provided in a database (not shown). The attribute table 40 sets a volume level according to the sex of the user and the age category of the user. The state rule data database 41 sets the volume or the speaking speed according to the state of the user's input operation.
[0140]
FIG. 11 is a block diagram showing the main part of the second embodiment shown in FIG. In FIG. 11, the attribute table 40 is composed of a gender rule table 40a storing male sounds or female sounds depending on the user's gender, and a volume table 40b whose volume level changes depending on the age of the user.
[0141]
In the gender rule table 40a, when the user is a male, a female sound synthesized by voice is selected in order to produce a soft voice. When the user is a woman, a male sound that is synthesized by voice is selected to produce a voice.
[0142]
In the volume table 40b, volume levels suitable for the user's age classification can be roughly set.
For example, the volume level is set to 4 when the user's age is 0 to 59, and the volume level is set to 5 when the user's age is 60 to 69. The volume level is set to 6 when the user's age is 70 to 79, and the volume level is set to 7 when the user's age is 80 to 89.
[0143]
That is, for example, the volume level is increased in order from volume level 1, and the volume is set to be larger as the numerical value is larger. Rough volume is set according to the user's gender, age group, etc.
[0144]
The sex rule table 40a and the volume table 40b set the volume level suitable for the general user. The state rule table 41 adjusts the volume or voice speed according to the user.
[0145]
The sex rule table 40a, the volume table 40b, and the state rule table 41 are connected to the service execution unit 17d. The service execution unit 17d is connected to the voice attribute setting event generation unit 42 and the voice synthesis processing unit 18.
[0146]
For example, when an instruction indicating that the volume is low and the speed is low is transmitted from the push button to the voice attribute setting event generation unit 42, the voice attribute setting event generation unit 42 sets the voice attribute of the user. Generate an event.
[0147]
The service execution unit 17d includes a rule check processing unit 17a that checks rules in the attribute table 40, a voice attribute setting unit 17b that sets voice attributes according to the processing output of the rule check processing unit 17a, and a voice attribute setting unit 17b. The narration sentence output part 17c which outputs the narration sentence from the narration story output part 15 according to an audio | voice attribute output is comprised.
[0148]
The state rule table 41 can be set to increase the volume by one level and decrease the voice speed by one level.
The speech synthesis processing unit 18 performs speech synthesis processing from the output of the speech attribute setting unit 17b and the output of the narration sentence output unit 17c.
(Operation of Embodiment 2)
Next, the operation of the second embodiment will be described. For example, when the user attribute is present in the database, the user attribute is obtained from the user number or when an arbitrary user inputs his / her attribute from the push button of the telephone 30, the voice attribute setting event generating unit 15 Generates a voice attribute setting event.
[0149]
The rule check processing unit 17a refers to the gender rule table 40a and the volume table 40b by the output from the audio attribute setting event generation unit 15, and outputs the referenced table information to the audio attribute setting unit 17b. The voice attribute setting unit 17b sets a user's voice attribute.
[0150]
For example, when a man, 61, uses this voice response service, the gender rule table 40a and the volume table 40b are referred to, so that the female gender is set and the volume level is set to 5 in order to soften the voice gender. Is done.
[0151]
In addition, when a user input operation occurs in the voice genus setting event generation unit 15, the rule check processing unit 17 a refers to the state rule table 41. From the table information of the state rule table 41, the voice attribute setting unit 17b sets a voice attribute.
[0152]
For example, when the user makes an input error, the voice speed is decreased by one level and the volume is increased by one level.
That is, it is considered that the narration is fast and the volume is low, and the voice cannot be heard. In this case, the sound quality is changed to speak slowly and loudly.
[0153]
On the other hand, when a voice attribute setting command suitable for the user is output from the voice attribute setting unit 17b and a narration is output from the narration sentence output unit 17c, the speech synthesis processing unit 18 synthesizes the sound quality suitable for the user. To do.
[0154]
As described above, in the second embodiment, for any user, the sound quality is automatically changed according to information such as the user's age classification, gender, and the state of pronunciation such as ease of hearing. Voice response service with easy-to-listen sound quality.
[0155]
As a result, it is possible to improve user service by eliminating erroneous operations due to mistakes in listening.
Further, even when the second embodiment is applied to a product ordering business, a reservation business, and a data requesting business, erroneous recognition by a user's voice is reduced, and these business operations can be performed smoothly.
[0157]
【The invention's effect】
According to the present invention, You can automatically replay the past service from the log information and easily check the contents of the service.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a first embodiment of a voice response service system including a voice response service device according to the present invention.
FIG. 2 is a diagram showing history information according to the first embodiment of the present invention.
FIG. 3 is a diagram showing a sequence in which a service is executed according to the narration story of the first embodiment.
FIG. 4 is a diagram illustrating an example in which a failure occurs during the execution of the service according to the first embodiment.
FIG. 5 is a diagram describing service contents according to the first embodiment.
FIG. 6 is a diagram illustrating a speech synthesis method according to the first embodiment.
FIG. 7 is a diagram illustrating a specific configuration example of a speech synthesis processing unit employing a speech synthesis method.
8 is a diagram showing a specific example in which speech synthesis is performed by the speech synthesis method shown in FIG.
FIG. 9 is a flowchart showing processing for specifying a record that a user wants to reproduce from a history file.
FIG. 10 is a block diagram showing a second embodiment of a voice response service system including a voice response service device according to the present invention.
11 is a block diagram showing the main part of the second embodiment shown in FIG.
[Explanation of symbols]
10 Voice response service department
11 History information storage
12 History information extraction unit
14 Line control unit
15 Narration story output section
16 Narration story analysis section
17 Service execution department
17a Rule check processing part
17b Voice attribute setting part
17c Narration sentence output part
18 Speech synthesis processor
19 Pseudowire control unit
20 switching part
22 Database access part
23 Database
25 Text file
26 Accumulated audio files
27 History information writing part
30 telephone
31 Language processor
32 Sound processor
33 Speaker
34 Text Analysis Department
35 word dictionary
36 Reading / Prosodic Symbol Assignment Unit
37 Intonation generator
38 Waveform synthesis unit
39 Phoneme fragment
40 attribute table
41 State rule table
42 Voice attribute setting event generator

Claims (2)

音声応答サービスの処理手順に基づき利用者から入力されるプッシュボタン信号に応じた音声応答サービスを処理する音声応答サービス装置であって、
利用者単位に、前記音声応答サービスの処理手順に応じて該利用者から入力されるプッシュボタン信号情報を文字情報として含む該音声応答サービスのログ情報を時系列に記憶するログ情報記憶手段と、
前記プッシュボタン信号の文字情報を音声に合成する音声合成処理手段と、
前記ログ情報記憶手段に記憶されたログ情報の中から特定の前記プッシュボタン信号情報を元にログ情報を抽出するログ情報抽出手段と、
前記音声応答サービスの処理手順に基づき前記ログ情報抽出手段が抽出したログ情報のプッシュボタン信号情報に応じて該プッシュボタン信号情報について前記音声合成処理手段で合成した音声を含む音声応答サービスを再生する音声応答サービス再生手段と
を備えることを特徴とする音声応答サービス装置。
A voice response service device that processes a voice response service according to a push button signal input from a user based on a processing procedure of the voice response service,
Log information storage means for storing, in a time series, log information of the voice response service that includes, as character information, push button signal information input from the user in accordance with a processing procedure of the voice response service;
Speech synthesis processing means for synthesizing character information of the push button signal into speech;
Log information extracting means for extracting log information based on the specific push button signal information from the log information stored in the log information storage means;
In response to the push button signal information of the log information extracted by the log information extraction means based on the processing procedure of the voice response service, the voice response service including the voice synthesized by the voice synthesis processing means for the push button signal information is reproduced. A voice response service apparatus comprising: voice response service reproduction means.
音声応答サービスの処理手順に基づき利用者から入力されるプッシュボタン信号に応じた音声応答サービスを処理する音声応答サービス装置であって、
利用者単位に、前記音声応答サービスの処理手順に応じて該利用者から入力される、該利用者の利用者番号を含んだプッシュボタン信号情報を含む該音声応答サービスのログ情報を時系列に記憶するログ情報記憶手段と、
前記ログ情報記憶手段に記憶されたログ情報の中から該当する利用者番号を含むログ情報を特定して再生したいログ情報を抽出するログ情報抽出手段と、
前記音声応答サービスの処理手順に基づき前記ログ情報抽出手段が抽出したログ情報のプッシュボタン信号情報に応じて音声応答サービスを再生する音声応答サービス再生手段と
を備えることを特徴とする音声応答サービス装置。
A voice response service device that processes a voice response service according to a push button signal input from a user based on a processing procedure of the voice response service,
Log information of the voice response service including push button signal information including the user number of the user , which is input from the user according to the processing procedure of the voice response service, in time series. Log information storage means for storing;
Log information extraction means for identifying log information including a corresponding user number from log information stored in the log information storage means and extracting log information to be reproduced ;
A voice response service apparatus comprising: voice response service reproduction means for reproducing voice response service according to push button signal information of log information extracted by the log information extraction means based on a processing procedure of the voice response service. .
JP32204495A 1995-01-11 1995-12-11 Voice response service equipment Expired - Fee Related JP3760420B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32204495A JP3760420B2 (en) 1995-01-11 1995-12-11 Voice response service equipment

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP261495 1995-01-11
JP7-2614 1995-01-11
JP32204495A JP3760420B2 (en) 1995-01-11 1995-12-11 Voice response service equipment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004236095A Division JP3936351B2 (en) 1995-01-11 2004-08-13 Voice response service equipment

Publications (2)

Publication Number Publication Date
JPH08251307A JPH08251307A (en) 1996-09-27
JP3760420B2 true JP3760420B2 (en) 2006-03-29

Family

ID=26336045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32204495A Expired - Fee Related JP3760420B2 (en) 1995-01-11 1995-12-11 Voice response service equipment

Country Status (1)

Country Link
JP (1) JP3760420B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001166785A (en) * 1999-12-10 2001-06-22 Fujitsu Ltd Device and method for generating voice talk corpus
JP5521324B2 (en) * 2008-12-24 2014-06-11 富士通株式会社 Program, information processing apparatus and output method

Also Published As

Publication number Publication date
JPH08251307A (en) 1996-09-27

Similar Documents

Publication Publication Date Title
US6052441A (en) Voice response service apparatus
US10088976B2 (en) Systems and methods for multiple voice document narration
US8498867B2 (en) Systems and methods for selection and use of multiple characters for document narration
US8370151B2 (en) Systems and methods for multiple voice document narration
US9478219B2 (en) Audio synchronization for document narration with user-selected playback
JP3340585B2 (en) Voice response device
JP2013164515A (en) Voice translation device, voice translation method, and voice translation program
JP3936351B2 (en) Voice response service equipment
JP3760420B2 (en) Voice response service equipment
JP2001117920A (en) Device and method for translation and recording medium
JP2005509906A (en) A device for editing text in a given window
JP3706112B2 (en) Speech synthesizer and computer program
JP2016186646A (en) Voice translation apparatus, voice translation method and voice translation program
JP2015187738A (en) Speech translation device, speech translation method, and speech translation program
KR102274275B1 (en) Application and method for generating text link
WO2010083354A1 (en) Systems and methods for multiple voice document narration
JP2024031442A (en) Audio processing device, audio processing method, audio processing program, and communication system
JP2003140677A (en) Read-aloud system
CN114242036A (en) Role dubbing method and device, storage medium and electronic equipment
Gibbon et al. Consumer off-the-shelf (COTS) speech technology product and service evaluation
JPH02120894A (en) Voice synthesizing device
JP2003122387A (en) Read-aloud system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040813

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051028

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20051110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051228

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100120

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110120

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110120

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120120

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130120

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130120

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140120

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees