JP2019057777A - 自動音声応答システムの音声ガイダンス選択支援装置及びプログラム - Google Patents
自動音声応答システムの音声ガイダンス選択支援装置及びプログラム Download PDFInfo
- Publication number
- JP2019057777A JP2019057777A JP2017179956A JP2017179956A JP2019057777A JP 2019057777 A JP2019057777 A JP 2019057777A JP 2017179956 A JP2017179956 A JP 2017179956A JP 2017179956 A JP2017179956 A JP 2017179956A JP 2019057777 A JP2019057777 A JP 2019057777A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- guidance
- information
- user
- menu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Telephonic Communication Services (AREA)
Abstract
【課題】IVR装置の音声ガイダンスに対するユーザ意図を音声認識技術を用いて把握し、音声ガイダンスの選択情報を自動音声応答システムに提供する。【解決手段】実施形態の支援装置は、IVR装置と接続され、ユーザが選択するための識別情報を含むガイダンス項目に含まれるキーワードに、自動再生される所定の音声情報案内に対応する識別情報を含むルート情報が紐付けられた選択支援管理情報を有している。ユーザからの着信を受け付けてユーザの発話音声を取得し、発話音声に対する音声認識結果とキーワードとをマッチングして発話音声に対応するルート情報を特定する。特定されたルート情報に基づいて音声ガイダンス選択情報を生成し、IVR装置に発信して開始された音声ガイダンスに対して音声ガイダンス選択情報を出力する。音声ガイダンス選択情報が出力された後にユーザの着信を、自動音声応答装置に中継する。【選択図】図1
Description
本発明は、自動音声応答(IVR)システムが提供する音声ガイダンスに対するユーザ選択を支援する技術に関する。
従来からコールセンターなど電話対応業務において、自動音声応答(IVR)装置を導入し、音声での所定の情報案内などを自動化することで、オペレータが対応する電話対応を低減している。IVR装置は、ユーザの着信呼を受け付け、所定の音声ガイダンスを自動再生し、ユーザの電話機からのプッシュボタン操作により送出される選択信号(PB信号)を受信する。ユーザは、音声ガイダンスに従って複数の各メニューで希望する案内項目を選択し、IVR装置は、各メニューにおいて選択された案内項目に紐付く所定の音声情報案内を提供する。
自動音声応答システムの音声ガイダンスに対するユーザ意図を音声認識技術を用いて把握し、ユーザ意図に基づく音声ガイダンスの選択情報を自動音声応答システムに提供する支援装置及びプログラムを提供する。
実施形態の支援装置は、ユーザからの着信呼に対して所定の音声ガイダンスを自動再生し、前記音声ガイダンスに従うユーザの選択操作に基づいて所定の音声情報案内を自動再生する自動音声応答装置と接続される支援装置である。ここで、前記音声ガイダンスは、ユーザが選択するための識別情報を含むガイダンス項目を複数含んでいる。前記支援装置は、前記ガイダンス項目に含まれるキーワードに、自動再生される前記所定の音声情報案内に対応する前記識別情報を含むルート情報が紐付けられた選択支援管理情報を記憶する記憶部と、ユーザからの着信を受け付ける通話制御部と、着信したユーザの発話音声を取得する音声取得部と、前記発話音声に対する音声認識結果と前記キーワードとをマッチングして、前記発話音声に対応する前記ルート情報を特定する特定部と、特定された前記ルート情報に基づいて音声ガイダンス選択情報を生成する選択情報生成部と、前記自動音声応答装置に発信し、開始された前記所定の音声ガイダンスに対して生成された前記音声ガイダンス選択情報を出力するとともに、前記音声ガイダンス選択情報が出力された後に前記ユーザの着信を前記自動音声応答装置に中継する中継部と、を備えることを特徴とする。
以下、実施形態につき、図面を参照して説明する。
(第1実施形態)
図1から図12は、第1実施形態を示す図である。図1は、本実施形態の音声ガイダンス選択支援システムのネットワーク構成図であり、音声ガイダンス選択支援装置(以下、支援装置という)300は、ユーザ端末100と自動音声応答(IVR)装置500との間に位置し、IVR装置500に対するユーザ支援窓口として構成されている。
図1から図12は、第1実施形態を示す図である。図1は、本実施形態の音声ガイダンス選択支援システムのネットワーク構成図であり、音声ガイダンス選択支援装置(以下、支援装置という)300は、ユーザ端末100と自動音声応答(IVR)装置500との間に位置し、IVR装置500に対するユーザ支援窓口として構成されている。
IVR装置500は、公衆交換電話網/IP網における外線番号が割り当てられ、IVR装置500宛に発信された着信呼を受け付けて所定の音声ガイダンスを自動再生し、音声ガイダンスに従うユーザの選択操作に基づいて所定の音声情報案内を自動再生する。しかしながら、従来のIVR装置500による電話対応には、以下のような課題がある。まず、音声ガイダンスを最後まで聴取しなければならなかったり、音声ガイダンスを構成するメニューの数が多い場合には、長い時間にわたって音声ガイダンスを聴取し、聴取した各メニューそれぞれにおいて選択操作をしなければならなかったりし、ユーザにとって煩わしい面がある。
また、IVR装置500は、上述のように、音声での所定の情報案内などを自動化することでオペレータによる電話対応を低減させているが、メニューに含まれるガイダンス項目をきちんと聞き取れなかった場合、ユーザは、オペレータとの電話対応を希望したり、IVR装置500の仕組みによっては所定時間内にユーザが選択しなかったりした場合に、オペレータに自動的に転送してしまうなど、オペレータによる電話対応の低減が図れないケースもある。特に、高齢者は、音声ガイダンスが聞き取りづらかったり、希望する音声情報案内に対して選択操作をスムーズに行えなかったりする場合もある。
そこで、本実施形態の音声ガイダンス選択支援システムは、IVR装置500の音声ガイダンスに対するユーザ意図を音声認識技術を用いて把握し、ユーザ意図に基づく音声ガイダンスの選択情報をIVR装置500に提供する。
ユーザは、ユーザ端末100から、IVR装置500ではなく支援装置300に電話をかけ、IVR装置500が提供する音声情報案内に関連する発話を行う。支援装置300は、ユーザが発話した音声認識結果に基づいて、IVR装置500が提供する音声ガイダンスに対する選択情報を生成する。支援装置300は、IVR装置500に電話をかけ、自動音声応答処理の開始に伴って生成された音声ガイダンス選択情報を出力する。IVR装置500は、音声ガイダンス選択情報に基づいて、ユーザによる選択操作が行われているときは同じ音声ガイダンス制御を行い、音声情報案内を自動再生する。支援装置300は、接続しているユーザ端末100と、支援装置300から音声ガイダンス選択情報が入力された後のIVR装置500とを接続する。
このように構成することで、所定の音声情報案内を自動再生するまでのルート情報をユーザの発話音声から把握し、ユーザが音声ガイダンスに対する選択操作を行わなくても、IVR装置500が提供する音声情報案内を、ユーザの希望に応じて提供することができ、ユーザの利便性とIVR装置500による電話対応業務の効率化をより向上させることができる。
特に、本実施形態の音声ガイダンス選択支援システムは、既存のIVR装置500(IVRシステム)の前段に支援装置300を設けるだけで実現することができ、後段のIVR装置500の既存の仕組み(音声ガイダンスに従うユーザの選択操作に基づいて所定の音声情報案内を自動再生する)を変更する必要がない。
図2は、支援装置300の機能ブロック図である。支援装置300は、通信/通話制御装置310、制御装置320、記憶装置330を含んで構成される。通信/通話制御装置310は、公衆交換電話網/IP網を介したユーザ端末100及びIVR装置500との各通信/通話制御を行う。
通信/通話制御装置310は、公衆交換電話網(移動体通信網を含む)を通じたプッシュ回線方式のアナログ回線電話機能、IP(InternetProtocol)網を介したIP電話機能のいずれか一方又は両方の機能を備えている。プッシュ回線方式では、ダイヤルボタンを押すことでプッシュ信号(PB信号)が出力される。一方、IP電話は、SIP(SIPサーバ)による発信、着信、応答、切断等の呼制御が行われ、電話間の音声通話は、RTP(Real−time Transport Protocol)パケットで行われる。
通信/通話制御装置310は、公衆交換電話網/IP網における外線番号が割り当てられ、ユーザ端末100からの外線着信を受け付けて応答、切断、保留、転送などの呼制御を通話制御部として機能する。また、通信/通話制御装置310は、公衆交換電話網/IP網における外線番号が割り当てられたIVR装置500に対する発信、切断、保留、転送などの呼制御も行う。
さらに、本実施形態の通信/通話制御装置310は、IVR装置500に対してPB信号又はPB信号に対応するRTPパケットの出力制御を行う。音声ガイダンス選択情報は、PB信号又はRTPパケットの形式で、支援装置300からIVR装置500に出力される。
音声取得部321は、支援装置300に着信したユーザ端末100からの着信呼に対して、支援メッセージを出力し、ユーザ端末100においてユーザが発話した音声を取得する。音声取得部321は、例えば、「〇〇サービスコールセンターです。ご希望の商品又はサービスについて音声入力してください。」という支援メッセージを音声出力し、ユーザの発話を促す。そして、支援メッセージに対して発話したユーザの音声データを取得する。
音声認識制御部322は、音声認識機能を備え、音声取得部321によって取得されたユーザの発話音声データをテキストデータに変換する音声認識処理を行う。音声認識結果は、テキスト形式で出力される。なお、音声認識機能は、支援装置300とネットワークで接続される外部の音声認識処理サーバ(不図示)を利用することもできる。この場合、音声認識制御部322は、音声認識処理サーバとの間のやり取りを制御し、発話音声データを音声認識処理サーバに送信し、音声認識処理サーバから処理結果であるテキスト形式の音声認識結果を受信することができる。
意図特定部323は、ユーザの発話音声認識結果に基づいて、IVR装置500が提供する音声ガイダンスに対する選択情報を特定する。ここで、IVR装置500の音声ガイダンスと選択情報との関係について詳細に説明する。
図3は、本実施形態のIVR装置500の音声ガイダンスを構成する階層化されたメニュー、各メニューに含まれる各ガイダンス項目から抽出されるメニュー解析テーブル、及びルート情報の一例を示す図である。
音声ガイダンスは、ユーザが選択するための識別情報を含むガイダンス項目を複数含んでおり、例えば、所定の音声情報案内を自動再生するまでの音声ガイダンスの階層構造に従う複数のメニュー1,2,3を含んで構成することができる。各メニュー1,2,3は、異なる複数のガイダンス項目を含んで構成されている。なお、階層構造とは、メニュー1においてガイダンス項目が選択された場合に次の音声ガイダンスはメニュー2に切り替えられるといったような、音声ガイダンスに対してユーザが選択操作したときに一方のメニューから他方のメニューに切り替えられる順序である。
図3に示すように、メニュー1において、例えば、ガイダンス項目「外貨預金の取引に関する問い合わせは、「4」を」には、当該ガイダンス項目をユーザが選択するための識別情報「4」と、ガイダンス項目を説明するためのキーワード「外貨預金」とが含まれている。そこで、メニュー1を解析すると、メニュー1解析テーブルとして、ガイダンス項目毎に互いに異なる識別情報が紐付き、各識別情報に対して異なるキーワードが紐付いている。メニュー2,3についても同様である。
図3の例では、メニュー1〜3の各ガイダンス項目を順に選択することで、所定の音声情報案内にたどり着くように音声ガイダンス制御が行われる。つまり、メニュー1〜3の各ガイダンス項目の各識別情報の並びが、所定の音声情報案内(例えば、アメリカドルの普通預金の〇〇は、□□です)にたどり着くためのルート情報となる。ルート情報を構成する識別情報の数および並びは、音声情報案内にたどり着くまでにユーザ選択を必要とするメニューの数およびユーザに出力されるメニュー順の並びとなる。図3に示すように「412」のルート情報は、メニュー1のガイダンス項目「4」、メニュー2のガイダンス項目「1」、及びメニュー3のガイダンス項目「2」が、左から順にメニューの階層構造の並びに準じて並んでいる。
図4は、本実施形態の選択支援管理情報の構成例と、ユーザの発話音声認識結果に対するユーザの意図特定処理及び音声ガイダンス選択情報の生成処理と、を説明するための図である。図4に示すように、選択支援管理情報は、ガイダンス項目に含まれるキーワードに、自動再生される所定の音声案内に対応する識別情報を含むルート情報が紐付けられた情報である。すなわち、ルート情報を構成する各識別情報に対応する各ガイダンス項目のキーワードがルート情報に関連付けられており、ルート情報を構成する識別情報の数に対して同じ数又はそれ以上のキーワードが対応付けられている。なお、1つのガイダンス項目には、複数のキーワードが含まれるケースもあり、この場合、1つの識別情報に対して複数のキーワードが紐付くことになる。
このように本実施形態のルート情報は、各メニューにおけるガイダンス項目の識別情報を階層構造に従って順に並べた複数の識別情報の組み合わせであり、キーワードは、順に並べられた複数の識別情報それぞれの各ガイダンス項目に含まれる各キーワードの組み合わせを含み、所定の音声情報案内に導くためのルート情報に対してガイダンス項目のキーワードが紐付けられることで、選択支援管理情報が形成される。
意図特定部323は、図4の例のように、ユーザの発話音声に対する音声認識結果と、選択支援管理情報のキーワードとをマッチングして、ユーザの発話音声に対応するルート情報を特定する。図4に示す一例では、ユーザの発話音声の音声認識結果に、「アメリカドル」、「定期預金」のキーワードが含まれている。意図特定部323は、音声認識結果にルート情報に紐付くキーワードの組み合わせがすべて含まれているか否かを判別し、含まれていると判別された場合に、判別されたキーワードの組み合わせに紐付くルート情報を抽出する。
音声ガイダンス選択情報生成部324は、意図特定部323で特定されたルート情報に基づいて音声ガイダンス選択情報を生成する。図4の例では、ユーザの発話音声に「アメリカドル」、「定期預金」のキーワードが含まれているので、意図特定部323は、ルート情報「412」を抽出する。そして、音声ガイダンス選択情報生成部324は、「412」の並び順にPB信号を生成したり、PB信号に相当するRTPパケットを生成したりする。
なお、IVR装置500に関する情報は予め記憶装置330に記憶されている。例えば、IVR装置500の電話番号や、支援装置300とIVR装置500との間の接続方式(公衆交換電話網orIP網)が記憶されている。通信/通話制御装置310及び音声ガイダンス選択情報生成部324は、接続方式に応じて、公衆交換電話網を通じたPB信号の生成及び出力制御と、IP網を通じたRTPパケットの生成及び出力制御と、を切り替えることができる。
中継管理部325は、通信/通話制御装置310を通じてIVR装置500に外線発信し、開始されたIVR装置500の所定の音声ガイダンスに対して、生成された音声ガイダンス選択情報を出力する。このとき、中継管理部325は、音声ガイダンス選択情報を構成する複数の識別情報を順次出力するが、出力するタイミングは、IVR装置500の音声ガイダンス制御によって異なる。
例えば、IVR装置500の音声ガイダンス制御が、1つのメニューガイダンス再生中に1つの識別情報しか識別できない場合(個別識別制御)、中継管理部325は、1つ1つの識別情報を所定の時間間隔で出力する。つまり、1つの識別情報を出力した後に音声ガイダンスが次のメニューに切り替わった後に、次の識別情報を出力するようにする。音声ガイダンスが次のメニューに切り替わる時間間隔は、予め設定しておくことができる。
また、例えば、IVR装置500の音声ガイダンス制御が、1つのメニューガイダンス再生中に入力された複数の識別情報を識別可能な場合(一括識別制御)、中継管理部325は、複数の識別情報を一括して出力する。つまり、メニューガイダンスが開始された後に複数の識別情報を一括して一度に出力する。IVR装置500の音声ガイダンス制御が、個別識別制御であるか、一括識別制御であるかの制御種別情報は、記憶装置333に予め記憶しておくことができ、中継管理部325は、制御種別情報を参照して上述した出力方式を切り替えて生成された音声ガイダンス選択情報を、IVR装置500に出力することができる。
また、中継管理部325は、音声ガイダンス選択情報の出力制御と共に、音声ガイダンス選択情報が出力された後にユーザの外線着信呼を外線発信によって接続されたIVR装置500に中継する中継処理を行う。ここで、中継処理とは、ユーザの着信呼と、IVR装置500に対する発信呼を接続する外線間転送処理である。中継管理部325は、例えば、ユーザの着信呼を保留にし、音声ガイダンス選択情報をIVR装置500に出力した後、IVR装置500への発信呼を保留にし、保留にされたユーザ着信呼及びIVR装置500の発信呼同士を転送して、ユーザ端末100とIVR装置500とを繋ぎ直す中継処理を行う。
なお、上記説明では、IVR装置500が提供する音声ガイダンスとして、階層構造で関連付けられた複数のメニューを含む音声ガイダンスを一例に説明したが、例えば、1つのメニューのみを有する音声ガイダンスであってもよい。つまり、複数のガイダンス項目を含む1つのメニューと音声情報案内とが一対一で対応した音声ガイダンスであり、一回のガイダンス項目(識別情報)の選択によって音声情報案内を提供する態様である。この場合であっても、本実施形態の支援装置300による選択支援を適用することができる。
次に、本実施形態のユーザ意図補充処理について説明する。図4に示したように、選択支援管理情報は、階層構造の複数のメニューそれぞれのガイダンス項目のキーワード及び識別情報の組み合わせによって構成されている。そこで、意図特定部323は、ユーザの発話音声認識結果に、ルート情報に紐付くキーワードの組み合わせがすべて含まれているか否かを判別し、含まれていると判別された場合に、判別されたキーワードの組み合わせに紐付くルート情報を抽出している。
これに対して、ルート情報に紐付くキーワードの組み合わせがすべて含まれていない場合、すなわち、発話音声認識結果にキーワードの組み合わせがすべて含まれておらず、かつキーワードの組み合わせのうちの少なくとも1つが含まれている場合、発話音声の音声認識結果内のキーワードが不足している状態となる。このような不足状態の場合、本実施形態では、不足しているキーワードをユーザからさらに聞き出すための音声メッセージ出力処理を行う。なお、キーワードの組み合わせのうちの1つのキーワードも含まれていない場合は、該当するルート情報がそもそもないものと判別され、音声メッセージ出力処理は行われない。
意図特定部323は、発話音声認識結果にキーワードの組み合わせがすべて含まれておらず、かつキーワードの組み合わせのうちの少なくとも1つが含まれていると判別された場合、音声メッセージ制御部325に音声メッセージ出力要求を出力する。音声メッセージ制御部326は、ユーザの着信呼に対して音声メッセージを出力し、音声メッセージに対するユーザの回答発話音声データを取得する。
このとき、音声メッセージ制御部325は、発話音声認識結果に含まれていないキーワードに該当する識別情報のガイダンス項目に基づいて生成される音声メッセージを再生することができる。図5は、ユーザの発話音声認識結果に対する音声メッセージ出力処理を説明するための図である。図6は、音声メッセージ出力処理に対するユーザの回答発話音声結果を用いたユーザの意図特定処理を説明するための図である。
図5に示すように、例えば、発話音声認識結果が「外貨預金について知りたい」である場合、「外貨預金」しかキーワードがなく、どの通貨の外貨預金なのか、どの種類(普通預金、定期預金)なのかわからない。一方で、キーワード「外貨預金」は、メニュー1のガイダンス項目に含まれている。そこで、本実施形態では、音声情報案内に対するルート情報を構成する複数の識別情報、すなわち、複数のキーワードの組み合わせのうち、1つのガイダンス項目に対するキーワードも登録し、そのキーワードに対するルート情報として「−」を設定する。「−」は、キーワード不足を表す識別情報であり、フラグや他の記号、英数字であってもよい。
そして、図6に示すように、キーワード「外貨預金」は、メニュー1のガイダンス項目であることから、メニュー2に対応する音声メッセージ1「ご希望の通貨をお知らせください」と、メニュー3に対応する音声メッセージ2「普通貯金、定期預金のどちらをご希望でしょうか」とをIVR装置500の音声ガイダンスの階層構造に従って予め生成する。これらの情報は、音声メッセージ管理情報として予め記憶装置330に記憶することができる。なお、音声メッセージは、音声合成技術を用いて、テキスト情報から音声データを生成するように構成することもできる。この場合、音声メッセージ管理情報には、各音声データではなく、テキスト情報がそれぞれ格納され、音声メッセージ制御部326が音声合成処理を行って音声データを生成し、ユーザの着信呼に出力することができる。
図6の例において、意図特定部323は、発話音声認識結果にキーワード「外貨預金」のみが含まれている場合、選択支援管理情報とマッチングするとルート情報として「−」が抽出されるので、抽出されたルート情報が「キーワード不足」であると判別し、音声メッセージ制御部326に、音声メッセージ出力要求を出力する。
音声メッセージ制御部326は、音声メッセージ管理情報を参照し、音声認識結果「外貨預金」をキーに、出力する音声メッセージを特定し、音声メッセージ1を出力する。そして、ユーザから音声メッセージ1に対する第1回答発話音声データを収集する。音声メッセージ制御部326は、音声メッセージ1の音声出力に引き続いて音声メッセージを音声出力するか否かを音声メッセージ管理情報を参照して判別する。図6の例では、音声メッセージ2が関連付けられているので、音声メッセージ2を出力し、ユーザから音声メッセージ2に対する第2回答発話音声データを収集する。音声メッセージ制御部326は、キーワード(音声認識結果)に対して紐付くすべての音声メッセージを出力し、各音声メッセージに対する回答発話音声データを収集する。
音声認識制御部322は、第1回答発話音声データ、第2回答発話音声データそれぞれに対して音声認識処理を行い、又は外部の音声認識処理サーバを通じた音声認識処理により、回答音声認識結果1,2を生成又は取得する。回答音声認識結果1には、キーワード「アメリカドル」が含まれ、回答音声認識結果1には、キーワード「普通預金」が含まれている。意図特定部323は、音声メッセージ1,2に対する回答音声認識結果1、2及びユーザの発話音声認識結果(キーワード「外貨預金」)に、選択支援管理情報のキーワードの組み合わせをすべて含むルート情報があるか否かを判別する。そして、該当するキーワードの組み合わせに紐付くルート情報を抽出し、ルート情報を特定する。
また、発話音声認識結果にキーワードが不足している状態の他の観点としては、図5に示すように、複数の異なるルート情報間で同じキーワードを含んでいる場合がある。つまり、共有キーワードのみが発話音声認識結果として抽出されると、複数のルート情報のうちどのルート情報を選んでよいかわからない。このような場合、キーワード「外貨預金」の例と同様に、例えば、1つのキーワード「アメリカドル」のルート情報にキーワード不足を示す「−」を設定した選択支援管理情報を生成することもできるが、意図特定部323が、発話音声認識結果と選択支援管理情報とをマッチングしたとき、2つ以上のルート情報が抽出された場合に、音声メッセージ出力処理を行うように構成することもできる。図5及び図6の例では、例えば、「アメリカドルについて知りたい」と発話された場合、選択支援管理情報において、1つのキーワード「アメリカドル」に対して2つのルート情報が抽出されることになる。この場合、音声メッセージ制御部326は、音声メッセージ管理情報を参照して、音声認識結果「アメリカドル」に紐付く音声メッセージ2を出力する。このとき、音声メッセージ1、すなわち、上位階層であるメニュー1に対応する音声メッセージは設定されていない。
したがたって、意図特定部323は、音声メッセージ2によって得られる回答音声認識結果2と、キーワード「アメリカドル」とを用いて、選択支援管理情報を参照し、2つのルート情報のうち、1つのルート情報(音声認識結果にすべてのキーワードが含まれるルート情報)を特定することができる。
このように本実施形態の支援装置300は、ユーザの最初の発話音声認識結果ではルート情報の特定ができない場合、ユーザが希望する音声情報案内を判定不能とせずに、希望する音声情報案内に対して不足しているキーワードをユーザから聞き出すための音声メッセージ出力処理を行う。このため、ユーザ意図に従うルート情報を適切に特定することができ、ユーザの利便性をより向上させることができる。
図7から図9は、本実施形態の音声ガイダンス選択支援システムの処理フローを示す図である。図7に示すように、ユーザ端末100は、支援装置300の外線番号に電話をかける(S101)。支援装置300(音声収集部321)は、ユーザの着信呼に対して支援ガイダンスを開始し、例えば、「お電話ありがとうございます。ご用件をお話ください。」の音声を出力する(S301)。
支援装置300は、ユーザの発話音声データに対して音声認識処理を行い、又は外部の音声認識処理サーバを通じた音声認識処理により、音声認識結果を生成又は取得する(S302)。支援装置300は、音声認識結果がOKである場合(S303のOK)、ステップS304に進み、選択支援管理情報を用いた音声認識結果に対するルート情報の特定処理を行う。
なお、音声認識結果がNGである場合(S303のNG)、図9に示すステップS316に進み、IVR装置500に対してユーザの着信呼を転送し、IVR装置500に対してユーザ端末100から直接電話を掛けたときと同様の処理を行う。つまり、音声認識結果が得られないユーザの発話に対しては、一例として、支援装置300を介さずに従来通りに直接IVR装置500との間で音声ガイダンスに従う選択操作をユーザに行ってもらう。このため、IVR装置500は、ユーザの着信呼に対して音声ガイダンスを開始し(S504)、音声ガイダンスの各メニューに従ってユーザが行った選択操作に基づいて、ユーザ端末100は、PB信号等の選択情報をIVR装置500に送出する(S104)。IVR装置500は、受信した選択情報(ガイダンス項目の識別情報)に基づいて音声ガイダンス制御処理を行い(S505)、ユーザ端末100に対して所定の音声情報案内を再生(提供)する(S506)。
図7に戻り、ステップS305において、支援装置300は、選択支援管理情報を参照してユーザの発話音声認識結果に対応する選択情報(ルート情報)が生成可能か否か(ユーザの発話音声認識結果に、ルート情報に紐付くキーワードの組み合わせがすべて含まれているか否か)を判別する。生成可能であると判別された場合、特定されたルート情報を用いて選択信号(音声ガイダンス選択情報)を生成し(S306)、IVR装置500に電話をかける(S307)。このとき、ユーザ着信呼は、保留にすることができる。
IVR装置500は、支援装置300の着信呼に対して音声ガイダンスを開始する(S501)。支援装置300は、開始されたIVR装置500の音声ガイダンスに対して生成された選択信号を出力する(S308)。上述したように選択信号の出力処理は、IVR装置500の音声ガイダンス制御処理に応じて、時間間隔で順次選択信号を出力したり、出力順序は保持したまま一括して複数の選択信号を出力したりすることができる。IVR装置500は、支援装置300から受信した選択情報に基づく音声ガイダンス制御処理を行う(S502)。
支援装置300は、選択情報が出力された後にユーザの外線着信呼を外線発信によって接続されたIVR装置500に中継する外線間接続処理を行う(S309)。IVR装置500は、受信した選択情報によって選択された音声情報案内を自動再生するとともに、自動再生された音声情報案内は、支援装置300を介して(中継して)ユーザ端末100に出力される(S503)。
次に、図8は、上述した音声メッセージ出力処理の処理フローを示す図である。ステップS305において、支援装置300は、ユーザの発話音声認識結果に対応する選択情報(ルート情報)が生成できない(ユーザの発話音声認識結果に、ルート情報に紐付くキーワードの組み合わせがすべて含まれていない)と判別された場合、ステップS310に進む。
支援装置300は、発話音声認識結果が、音声メッセージ出力処理対象であるか否かを判別する(S310)。例えば、発話音声認識結果にキーワードの組み合わせがすべて含まれておらず、かつキーワードの組み合わせのうちの少なくとも1つが含まれているか否かを判別する。判別の結果、キーワードの組み合わせのうちの1つのキーワードも含まれていないと判別された場合は(S310のNO)、音声メッセージ出力処理を行わず、ステップS316に進み、ユーザ端末100の着信呼をIVR装置500に転送して直接接続する。
一方、ステップS310において、発話音声認識結果にキーワードの組み合わせがすべて含まれておらず、かつキーワードの組み合わせのうちの少なくとも1つが含まれていると判別された場合(S310のYES)、支援装置300は、音声メッセージ管理情報を参照して、発話音声認識結果に該当する音声メッセージを抽出し(S311)、ユーザ端末100の音声メッセージを出力する(S312)。
支援装置300は、ユーザ端末100から入力される音声メッセージに対して回答した回答発話音声データを収集し、音声認識処理を行う(S313)。支援装置300は、発話音声認識結果に対して音声メッセージが複数設定されている場合は(S314のYES)、各音声メッセージを順次出力し、ステップS311からS314を繰り返し行い、各音声メッセージに対するユーザの回答発話音声データの収集及び音声認識処理を行う。
支援装置300は、発話音声認識結果に対して設定された1つ又は複数の音声メッセージすべてを出力してユーザの回答発話音声データの収集及び音声認識処理を行った後(S314のNO)、ステップS304と同様に、発話音声認識結果と回答発話音声認識結果とに基づいて、選択支援管理情報とマッチングし、ルート情報を特定する処理を行う(S315)。その後、ステップS305に進む。
次に、図10から図12を参照して、本実施形態の選択支援管理情報の自動更新処理について説明する。図4において説明したように、選択支援管理情報は、IVR装置500が提供する音声ガイダンスを解析し、音声ガイダンスを構成する1つ又は複数のメニューの各ガイダンス項目に含まれるキーワード及び識別情報に基づいて生成することができる。
そこで、本実施形態の支援装置300は、解析部327及び情報管理部328を備え、IVR装置500が提供する音声ガイダンスが変更された場合に、自動的に選択支援管理情報を更新する自動更新処理を行う。この自動更新処理は、定期的に又は任意のタイミングで行うことができる。
解析部327は、通信/通話制御装置310を通じ、公衆交換電話網又はIP網を介してIVR装置500の外線番号に発信し、自動再生される音声ガイダンスの音声データを取得する。解析部327は、取得された音声データを音声認識制御部322に出力し、音声認識制御部322によって音声認識処理された又は外部の音声認識処理サーバから取得された音声認識結果に基づいて、音声ガイダンスの内容を解析する。
図10の例のように、解析部327は、音声認識結果に基づいて、各メニュー1〜3のメニュー解析テーブルを生成することができる。図10の例では、メニュー2においてガイダンス項目が追加されている。
情報管理部328は、解析部327によって解析された音声ガイダンスの内容に基づいて、選択支援管理情報のルート情報及びキーワードの生成処理、又は/及びルート情報及びキーワードの更新処理を行う。例えば、解析部327によって生成された各メニュー解析テーブルを参照し、メニュー2において追加されたガイダンス項目に対して上位階層のメニュー1のガイダンス項目と、下位階層のメニュー3のガイダンス項目との組み合わせを生成する。
図11の例では、メニュー1のガイダンス項目「外貨預金」に対して追加されたメニュー2のガイダンス項目「イギリスポンド」と「人民元」に対して、メニュー階層間の組み合わせを生成することができる。情報管理部328は、追加されたガイダンス項目に対してメニュー階層間の組み合わせを階層構造に従って生成し、生成されたメニュー階層間の組み合わせにおいて、各メニューの各ガイダンス項目に含まれるキーワードと、対応する識別情報とを、各メニュー解析テーブルから抽出する。情報管理部328は、図11の例のように、各メニュー解析テーブルから抽出されたキーワードの組み合わせと、メニュー階層順に並ぶ複数の識別情報で構成されるルート情報とを、新たな選択支援管理情報として登録する。
このように本実施形態の自動更新処理は、IVR装置500に任意のタイミングで発信し、IVR装置500が提供する音声ガイダンスを自動的に取得、解析して、メニュー解析テーブルを生成する。そして、生成されたメニュー解析テーブルに基づいて、選択支援管理情報を自動的に更新するので、IVR装置500の音声ガイダンスのメニューの追加や変更があっても事前にユーザに告知する必要がなく、かつユーザが希望した音声情報案内と異なる音声情報案内(変更前の音声ガイダンスに基づく意図と違う音声案内情報)が選択されることを抑制することができる。
なお、本実施形態の自動更新処理では、IVR装置500が出力する音声ガイダンスを音声認識して、音声認識されたガイダンス項目の識別情報をIVR装置500に出力し、階層構造のメニュー間を自動的に切り替えて音声ガイダンスの各メニューの音声データを収集することができる。
つまり、解析部327は、階層構造に従う第1メニューの音声データを取得し、取得された第1メニューの音声データの音声認識結果(音声認識制御部322が処理し、解析部327に出力する)に基づいて、第1メニューのガイダンス項目に含まれるキーワードと識別情報とを抽出するとともに、音声ガイダンスの選択操作として、抽出された識別情報をIVR装置500にリアルタイムに出力する。これにより、IVR装置500は、第1メニューに対する選択操作によって自動再生される第2メニューの音声データを出力する。解析部327は、第2メニューの音声データを取得すると、音声認識制御部322に出力し、第2メニューの音声データの音声認識結果に基づいて、第2メニューのガイダンス項目に含まれるキーワードと識別情報とを抽出する。これを階層構造に従う各メニューの数だけ繰り返し行い、図10の例で示した各メニュー解析テーブルを生成することができる。
このとき、例えば、階層構造に従って上位の第1メニューに対する下位の第2メニューには、第2メニューが自動再生される状態において第1メニューの音声ガイダンスへの切り替え(戻る)を許容する切り替えガイダンス項目を含んでいることがある。図10の例では、メニュー2、3の識別情報「9」に対応する切り替えガイダンス項目に相当する。このような場合、解析部327は、第2メニューの音声データを取得した後に、第2メニューの音声データの音声認識結果に含まれる切り替えガイダンス項目の識別情報を、第2メニューの選択操作としてIVR装置500に出力する。IVR装置500は、切り替えガイダンス項目の識別情報の入力に応じて、音声ガイダンスを第1メニューに切り替える。解析部327は、第1メニューに戻った音声ガイダンスにおいて、第1メニューの選択操作として出力していないガイダンス項目の識別情報をIVR装置500に出力し、例えば、下位の階層構造として第2メニューと並列に位置する第4メニューの音声データを取得してメニュー解析テーブルを生成することができる。
図12は、本実施形態の自動更新処理フローを示す図である。支援装置300は、IVR装置500の外線番号に発信する(S351)。IVR装置500は、音声ガイダンスを開始し(S551)、支援装置300は、自動再生される音声ガイダンスの音声データを取得し、取得された音声データを音声認識制御部322に出力する(S352)。支援装置300は、音声認識制御部322から出力される音声認識結果に基づいて、各メニュー毎にガイダンス項目に含まれるキーワードと選択情報(識別情報)を抽出し(S353)、各メニューのメニュー解析テーブルを生成する(S354)。
支援装置300は、音声ガイダンスの選択操作として抽出されたいずれか1つの識別情報をIVR装置500にリアルタイムに出力する(S355)。IVR装置500は、第1メニューに対する選択操作によって自動再生される音声データを出力する(S552)。IVR装置500は、第1メニューから切り替わった後に音声データを取得し、音声認識制御部322に出力する(S356)。このとき、上位のメニューから切り替わった後の次の音声データがメニューであるか否かを判別する(S357)。例えば、音声認識結果にガイダンス項目に必ず含まれる識別情報があるか否かを判別することで、収集された音声データがメニューガイダンスであるかを確認することができる。
第1メニューからガイダンスが切り替わった後に取得された音声データがメニューであると判別された場合(S358のYES)、ステップS353からステップS355の処理を同様に行い(S359〜S361)、階層構造に従って順次切り替えられるメニューガイダンスを音声認識し(S553のNOからS552に戻る)、メニューの解析テーブルを各々生成する。そして、ステップS358において、音声認識された音声データがメニューでないと判別された場合、支援装置300は、電話を切ってIVR装置500との回線を切る(S362)。そして、支援装置300は、生成された最新のメニュー解析テーブルに基づいて選択支援管理情報を更新する(S363)。
(第2実施形態)
図13から図17は、第2実施形態を示す図である。第2実施形態は、第1実施形態の音声ガイダンス選択支援システムを、ユーザ端末100をアプリケーションとして実現した態様である。なお、上記第1実施形態と同様の構成について同符号を付して適宜説明を省略する。また、上記第1実施形態と異なる点を中心に説明し、他の同様の機能や構成について適宜説明を省略する。
図13から図17は、第2実施形態を示す図である。第2実施形態は、第1実施形態の音声ガイダンス選択支援システムを、ユーザ端末100をアプリケーションとして実現した態様である。なお、上記第1実施形態と同様の構成について同符号を付して適宜説明を省略する。また、上記第1実施形態と異なる点を中心に説明し、他の同様の機能や構成について適宜説明を省略する。
図13は、本実施形態の音声ガイダンス選択支援システムのネットワーク構成図である。本実施形態では、ユーザは、ユーザ端末100においてIVR装置500が提供する音声情報案内に関連する発話を行い、ユーザ端末100から直接IVR装置500に電話をかける。ユーザ端末100は、ユーザが発話した音声認識結果に基づいて、IVR装置500が提供する音声ガイダンスに対する選択情報を生成する。ユーザ端末100は、IVR装置500に電話をかけた後、自動音声応答処理の開始に伴って、生成した音声ガイダンス選択情報を出力する。IVR装置500は、音声ガイダンス選択情報に基づいて、ユーザによる選択操作が行われているときは同じ音声ガイダンス制御を行い、音声情報案内を自動再生する。
本実施形態は、ユーザ端末100のアプリケーションとして音声ガイダンス選択支援機能をインストールするだけで、ユーザによる選択操作を行わなくても既存の音声ガイダンスに従う所定の音声情報案内を自動再生させることができる。
図14は、ユーザ端末100の機能ブロック図及びネットワーク構成図である。ユーザ端末100は、支援装置300及び音声認識処理サーバ600とネットワークを介して接続され、公衆交換電話網/IP網を介してIVR装置500に電話をかけることができる。ユーザ端末100は、通信/通話制御装置110、制御装置120、記憶装置130を含んで構成され、通信/通話制御装置110は、第1実施形態の通信/通話制御装置310と基本的には同じであり、公衆交換電話網(移動体通信網を含む)を通じたプッシュ回線方式のアナログ回線電話機能、IP(InternetProtocol)網を介したIP電話機能のいずれか一方又は両方の機能を備えている。
音声取得部121は、ユーザ端末100において、音声ガイダンス選択支援機能が起動されると、音声取得部121は、不図示のスピーカーから支援メッセージを出力し、ユーザ端末100においてユーザが発話した音声を不図示のマイクなどの集音装置を介して取得する。
音声認識制御部122は、音声認識制御部322と同様であり、音声取得部121によって取得されたユーザの発話音声データをテキストデータに変換する音声認識処理を行う。また、音声認識制御部122は、ネットワークを介して接続される外部の音声認識処理サーバ600に、ユーザの発話音声データを送信し、音声認識処理サーバ600から送信される音声認識結果を受信することもできる。
意図特定部123は、意図特定部323と同様であり、ユーザの発話音声認識結果に基づいて、IVR装置500が提供する音声ガイダンスに対する選択情報を特定する。選択支援管理情報は、記憶装置130に記憶されている。
意図特定部123は、図4の例のように、ユーザの発話音声に対する音声認識結果と、選択支援管理情報のキーワードとをマッチングして、ユーザの発話音声に対応するルート情報を特定する。音声ガイダンス選択情報生成部124は、音声ガイダンス選択情報生成部324と同じ機能であり、意図特定部123で特定されたルート情報に基づいて音声ガイダンス選択情報を生成する。
なお、本実施形態では、中継管理部325は備えていないが、中継管理部325によって遂行される以下の処理は、通信/通話制御装置110によって行われる。つまり、IVR装置500に外線発信し、開始されたIVR装置500の所定の音声ガイダンスに対して、生成された音声ガイダンス選択情報を出力する。音声ガイダンス選択情報を構成する複数の識別情報を順次出力するタイミングは、上述したようにIVR装置500の音声ガイダンス制御によって異なるように制御することができる。
音声メッセージ制御部125は、音声メッセージ制御部325と同じ機能を有し、上述した第1実施形態のユーザ意図補充処理を行う。記憶装置130には、図6に示した音声メッセージ管理情報が記憶されている。
本実施形態の支援装置300は、解析部327及び情報管理部328を含んで構成することができ、上述した選択支援管理情報を更新する。更新された選択支援管理情報は、配信制御部329によってユーザ端末100に配信することができる。配信制御部329は、その他にも本実施形態の音声ガイダンス選択支援機能に必要な各種情報をユーザ端末100に配信し、記憶させるように制御することができる。
図15から図17は、本実施形態の音声ガイダンス選択支援システムの処理フローを示す図である。図15に示すように、ユーザ端末100は、ユーザ操作に基づいて音声ガイダンス選択支援プログラムを起動する(S1001)。音声収集部121は、例えば、「お電話ありがとうございます。ご用件をお話ください。」の音声を出力する支援ガイダンスを開始する(S1002)。
ユーザ端末100は、ユーザの発話音声データに対して音声認識処理を行い、又は外部の音声認識処理サーバ600を通じた音声認識処理により、音声認識結果を生成又は取得する(S1003,S401、S402)。ユーザ端末100は、音声認識結果がOKである場合(S1004のOK)、ステップS1005に進み、選択支援管理情報を用いた音声認識結果に対するルート情報の特定処理を行う。
なお、音声認識結果がNGである場合(S1004のNG)、図17に示すステップS1016に進み、ユーザ端末100からIVR装置100に直接電話を掛け、従来通りに直接IVR装置500との間で音声ガイダンスに従う選択操作をユーザに行ってもらう。IVR装置500は、ユーザ端末の着信呼に対して音声ガイダンスを開始し(S5004)、音声ガイダンスの各メニューに従ってユーザが行った選択操作に基づいて、ユーザ端末100は、PB信号等の選択情報をIVR装置500に送出する(S1017)。IVR装置500は、受信した選択情報(ガイダンス項目の識別情報)に基づいて音声ガイダンス制御処理を行い(S5005)、ユーザ端末100に対して所定の音声情報案内を再生(提供)する(S5006)。
図15に戻り、ステップS1005において、ユーザ端末100は、選択情支援管理情報を参照してユーザの発話音声認識結果に対応する選択情報(ルート情報)が生成可能か否かを判別する。生成可能であると判別された場合(S1006のYES)、特定されたルート情報を用いて選択信号(音声ガイダンス選択情報)を生成し(S1007)、IVR装置500に電話をかける(S1008)。
IVR装置500は、ユーザ端末100の着信呼に対して音声ガイダンスを開始する(S5001)。ユーザ端末100は、開始されたIVR装置500の音声ガイダンスに対して生成された選択信号を出力する(S1009)。IVR装置500は、ユーザ端末100から受信した選択情報に基づく音声ガイダンス制御処理を行う(S5002)。
IVR装置500は、受信した選択情報によって選択された音声情報案内を自動再生し、自動再生された音声情報案内がユーザ端末100に出力される(5003)。
図16は、本実施形態の音声メッセージ出力処理の処理フローを示す図である。ステップS1006において、ユーザ端末100は、ユーザの発話音声認識結果に対応する選択情報(ルート情報)が生成できない(ユーザの発話音声認識結果に、ルート情報に紐付くキーワードの組み合わせがすべて含まれていない)と判別された場合、ステップS1010に進む。
ユーザ端末100は、発話音声認識結果が、音声メッセージ出力処理対象であるか否かを判別する(S1010)。判別の結果、キーワードの組み合わせのうちの1つのキーワードも含まれていないと判別された場合は(S1010のNO)、音声メッセージ出力処理を行わず、ステップS1016に進む。
ステップS1010において、発話音声認識結果にキーワードの組み合わせがすべて含まれておらず、かつキーワードの組み合わせのうちの少なくとも1つが含まれていると判別された場合(S1010のYES)、ユーザ端末100は、音声メッセージ管理情報を参照して、発話音声認識結果に該当する音声メッセージを抽出し(S1011)、ユーザ端末100のスピーカーから音声メッセージを出力する(S1012)。
ユーザ端末100は、ユーザ端末100のマイクから入力される音声メッセージに対して回答した回答発話音声データを収集し、音声認識処理を行う(S1013,S401,S402)。ユーザ端末100は、発話音声認識結果に対して音声メッセージが複数設定されている場合は(S1014のYES)、各音声メッセージを順次出力し、ステップS1011からS1014を繰り返し行い、各音声メッセージに対するユーザの回答発話音声データの収集及び音声認識処理を行う。
ユーザ端末100は、発話音声認識結果に対して設定された1つ又は複数の音声メッセージすべてを出力してユーザの回答発話音声データの収集及び音声認識処理を行った後(S1014のNO)、発話音声認識結果と回答発話音声認識結果とに基づいて、選択支援管理情報とマッチングし、ルート情報を特定する処理を行う(S1015)。その後、ステップS1006に進む。
以上、実施形態の音声ガイダンス選択支援システムについて説明したが、上記第1実施形態では支援装置300とIVR装置500とが公衆交換電話網/IP網を介して外線接続される態様について説明したが、これに限るものではない。例えば、支援装置300が、IVR装置500の内線として構成することも可能である。すなわち、支援装置300及びIVR装置500がPBX配下の内線網で接続される構成であっても、音声ガイダンス選択支援システムを実現することが可能である。
また、ユーザ端末100は、多機能携帯電話機やPDA(Personal Digital Assistant)等の移動通信端末装置、パーソナルコンピュータなどの通話機能、通信機能及び演算機能を備えた情報処理端末装置等が含まれる。
また、支援装置300は、ハードウェア構成として上述以外にも、メモリ(主記憶装置)、マウス、キーボード、タッチパネル、スキャナー等の操作入力手段、プリンタなどの出力手段、補助記憶装置(ハードディスク等)等を備えることができる。
また、本発明の各機能は、プログラムによって実現可能であり、各機能を実現するために予め用意されたコンピュータプログラムが補助記憶装置に格納され、CPU等の制御部が補助記憶装置に格納されたプログラムを主記憶装置に読み出し、主記憶装置に読み出された該プログラムを制御部が実行して、ユーザ端末100や支援装置300に本発明の各部の機能を動作させることができる。他方、本発明の各機能は、各々個別の制御装置で構成することができ、複数の制御装置を直接に又はネットワークを介して接続して支援装置300を構成することもできる。
また、上記プログラムは、コンピュータ読取可能な記録媒体に記録された状態で、コンピュータに提供することも可能である。コンピュータ読取可能な記録媒体としては、CD−ROM等の光ディスク、DVD−ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記録媒体として含まれる。
なお、本発明の実施形態を説明したが、当該実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100 ユーザ端末
110 通信/通話制御装置
120 制御装置
121 音声取得部
122 音声認識制御部
123 意図特定部
124 音声ガイダンス選択情報生成部
125 音声メッセージ制御部
130 記憶装置
300 支援装置
310 通信/通話制御装置
320 制御装置
321 音声取得部
322 音声認識制御部
323 意図特定部
324 音声ガイダンス選択情報生成部
325 中継管理部
326 音声メッセージ制御部
327 解析部
328 情報管理部
329 配信制御部
330 記憶装置
500 自動音声応答(IVR)装置
600 音声認識処理サーバ
110 通信/通話制御装置
120 制御装置
121 音声取得部
122 音声認識制御部
123 意図特定部
124 音声ガイダンス選択情報生成部
125 音声メッセージ制御部
130 記憶装置
300 支援装置
310 通信/通話制御装置
320 制御装置
321 音声取得部
322 音声認識制御部
323 意図特定部
324 音声ガイダンス選択情報生成部
325 中継管理部
326 音声メッセージ制御部
327 解析部
328 情報管理部
329 配信制御部
330 記憶装置
500 自動音声応答(IVR)装置
600 音声認識処理サーバ
Claims (8)
- ユーザからの着信呼に対して所定の音声ガイダンスを自動再生し、前記音声ガイダンスに従うユーザの選択操作に基づいて所定の音声情報案内を自動再生する自動音声応答装置と接続される支援装置であって、
前記音声ガイダンスは、ユーザが選択するための識別情報を含むガイダンス項目を複数含んでおり、
前記ガイダンス項目に含まれるキーワードに、自動再生される前記所定の音声案内に対応する前記識別情報を含むルート情報が紐付けられた選択支援管理情報を記憶する記憶部と、
ユーザからの着信を受け付ける通話制御部と、
着信したユーザの発話音声を取得する音声取得部と、
前記発話音声に対する音声認識結果と前記キーワードとをマッチングして、前記発話音声に対応する前記ルート情報を特定する特定部と、
特定された前記ルート情報に基づいて音声ガイダンス選択情報を生成する選択情報生成部と、
前記自動音声応答装置に発信し、開始された前記所定の音声ガイダンスに対して生成された前記音声ガイダンス選択情報を出力するとともに、前記音声ガイダンス選択情報が出力された後に前記ユーザの着信を前記自動音声応答装置に中継する中継部と、
を備えることを特徴とする支援装置。 - 前記音声ガイダンスは、前記所定の音声案内を自動再生するまでの前記音声ガイダンスの階層構造に従う複数のメニューを含み、かつ前記各メニューは、異なる複数の前記ガイダンス項目を含んでおり、
前記ルート情報は、前記各メニューにおける前記ガイダンス項目の前記識別情報を前記階層構造に従って順に並べた複数の前記識別情報の組み合わせであり、
前記キーワードは、順に並べられた複数の前記識別情報それぞれの前記各ガイダンス項目に含まれる各キーワードの組み合わせを含み、
前記特定部は、前記音声認識結果に前記キーワードの組み合わせがすべて含まれている場合に、前記キーワードの組み合わせに紐付く前記ルート情報を抽出する、
ことを特徴とする請求項1に記載の支援装置。 - 前記ユーザの着信呼に対して所定の音声メッセージを出力し、前記音声メッセージに対するユーザの回答発話を取得する音声メッセージ制御部をさらに有し、
前記特定部は、前記音声認識結果に前記キーワードの組み合わせがすべて含まれておらず、かつ前記キーワードの組み合わせのうちの少なくとも1つが含まれている場合に、前記音声メッセージ制御部に音声メッセージ出力要求を出力し、
前記音声メッセージ制御部は、前記音声認識結果に含まれていない前記キーワードに該当する前記識別情報の前記ガイダンス項目に基づいて生成される前記音声メッセージを再生し、
前記特定部は、前記音声メッセージに対する回答音声認識結果及び前記音声認識結果において前記キーワードの組み合わせをすべて含むか否かを判別し、前記キーワードの組み合わせに紐付く前記ルート情報を抽出する、
ことを特徴とする請求項2に記載の支援装置。 - 前記自動音声応答装置に発信し、自動再生される前記音声ガイダンスの音声データを取得し、取得された前記音声データの音声認識結果に基づいて前記音声ガイダンスの内容を解析する解析部と、
前記解析部によって解析された前記音声ガイダンスの内容に基づいて、前記選択支援管理情報の前記ルート情報及びキーワードの生成処理、又は/及び前記ルート情報及び前記キーワードの更新処理を行う情報管理部と、
をさらに有することを特徴とする請求項1から3のいずれか1つに記載の支援装置。 - 前記音声ガイダンスは、前記所定の音声案内を自動再生するまでの前記音声ガイダンスの階層構造に従う複数のメニューを含んでおり、
前記解析部は、第1メニューの前記音声データを取得し、取得された前記第1メニューの音声データの音声認識結果に基づいて、前記第1メニューの前記ガイダンス項目に含まれる前記キーワードと前記識別情報とを抽出するとともに、前記音声ガイダンスの選択操作として抽出された前記識別情報を前記自動音声応答装置に出力して、前記第1メニューに対する選択操作によって自動再生される第2メニューの前記音声データを取得し、取得された前記第2メニューの音声データの音声認識結果に基づいて、前記第2メニューの前記ガイダンス項目に含まれる前記キーワードと前記識別情報とを抽出することを特徴とする請求項4に記載の支援装置。 - 前記各メニューは、複数の異なる前記ガイダンス項目を含んでおり、
前記第2メニューは、前記第2メニューが自動再生される状態において前記第1メニューの前記音声ガイダンスへの切り替えを許容する切り替えガイダンス項目を含んでおり、
前記解析部は、第2メニューの前記音声データを取得した後に、前記第2メニューの音声データの音声認識結果に含まれる前記切り替えガイダンス項目の前記識別情報を、前記第2メニューの選択操作として前記自動音声応答装置に出力し、前記第1メニューに戻った前記音声ガイダンスにおいて、前記第1メニューの選択操作として出力していない前記ガイダンス項目の前記識別情報を前記自動音声応答装置に出力することを特徴とする請求項5に記載の支援装置。 - ユーザからの着信呼に対して所定の音声ガイダンスを自動再生し、ユーザが選択するための識別情報を含むガイダンス項目を複数含んだ前記音声ガイダンスに従うユーザの選択操作に基づいて所定の音声情報案内を自動再生する自動音声応答装置と接続されるコンピュータによって実行されるプログラムであって、
ユーザからの着信を受け付ける通話制御装置を通じて、着信したユーザの発話音声を取得する第1機能と、
前記ガイダンス項目に含まれるキーワードに、自動再生される前記所定の音声案内に対応する前記識別情報を含むルート情報が紐付けられた選択支援管理情報を用いて、前記発話音声に対する音声認識結果と前記キーワードとをマッチングして、前記発話音声に対応する前記ルート情報を特定する第2機能と、
特定された前記ルート情報に基づいて音声ガイダンス選択情報を生成する第3機能と、
前記自動音声応答装置に発信し、開始された前記所定の音声ガイダンスに対して生成された前記音声ガイダンス選択情報を出力するとともに、前記音声ガイダンス選択情報が出力された後に受け付けた前記ユーザの着信を前記自動音声応答装置に中継する第4機能と、
を実現させるためのプログラム。 - ユーザからの着信呼に対して所定の音声ガイダンスを自動再生し、ユーザが選択するための識別情報を含むガイダンス項目を複数含んだ前記音声ガイダンスに従うユーザの選択操作に基づいて所定の音声情報案内を自動再生する自動音声応答装置と接続される通話機能又は/及び通信機能を備えた携帯型情報処理装置によって実行されるプログラムであって、
前記ガイダンス項目に含まれるキーワードに、自動再生される前記所定の音声情報案内に対応する前記識別情報を含むルート情報が紐付けられた選択支援管理情報を記憶する機能と、
音声収集機能によって収集された前記ユーザの発話音声に対する音声認識結果と前記キーワードとをマッチングして、前記発話音声に対応する前記ルート情報を特定する第2機能と、
特定された前記ルート情報に基づいて音声ガイダンス選択情報を生成する第3機能と、
前記自動音声応答装置に発信し、開始された前記所定の音声ガイダンスに対して生成された前記音声ガイダンス選択情報を出力する第4機能と、
を実現させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017179956A JP2019057777A (ja) | 2017-09-20 | 2017-09-20 | 自動音声応答システムの音声ガイダンス選択支援装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017179956A JP2019057777A (ja) | 2017-09-20 | 2017-09-20 | 自動音声応答システムの音声ガイダンス選択支援装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019057777A true JP2019057777A (ja) | 2019-04-11 |
Family
ID=66106605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017179956A Pending JP2019057777A (ja) | 2017-09-20 | 2017-09-20 | 自動音声応答システムの音声ガイダンス選択支援装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019057777A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111653262A (zh) * | 2020-08-06 | 2020-09-11 | 上海荣数信息技术有限公司 | 一种智能语音交互系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06318977A (ja) * | 1993-03-03 | 1994-11-15 | Nippon Telegr & Teleph Corp <Ntt> | 音声対話装置 |
JPH10511252A (ja) * | 1995-09-29 | 1998-10-27 | エイ・ティ・アンド・ティ・コーポレーション | 音声をタッチトーン(信号)に変換するための電話網サービス |
JP2003511913A (ja) * | 1999-10-04 | 2003-03-25 | エリクソン インコーポレイテッド | 呼中機能遂行のための音声駆動シグナリング |
JP2004525551A (ja) * | 2001-01-22 | 2004-08-19 | スポンテニアス テクノロジー インコーポレイテッド | 音声メールシステムの音声対応ユーザインタフェース |
WO2016112053A1 (en) * | 2015-01-06 | 2016-07-14 | Cyara Solutions Corp. | Interactive voice response system crawler |
-
2017
- 2017-09-20 JP JP2017179956A patent/JP2019057777A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06318977A (ja) * | 1993-03-03 | 1994-11-15 | Nippon Telegr & Teleph Corp <Ntt> | 音声対話装置 |
JPH10511252A (ja) * | 1995-09-29 | 1998-10-27 | エイ・ティ・アンド・ティ・コーポレーション | 音声をタッチトーン(信号)に変換するための電話網サービス |
JP2003511913A (ja) * | 1999-10-04 | 2003-03-25 | エリクソン インコーポレイテッド | 呼中機能遂行のための音声駆動シグナリング |
JP2004525551A (ja) * | 2001-01-22 | 2004-08-19 | スポンテニアス テクノロジー インコーポレイテッド | 音声メールシステムの音声対応ユーザインタフェース |
WO2016112053A1 (en) * | 2015-01-06 | 2016-07-14 | Cyara Solutions Corp. | Interactive voice response system crawler |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111653262A (zh) * | 2020-08-06 | 2020-09-11 | 上海荣数信息技术有限公司 | 一种智能语音交互系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102223017B1 (ko) | 공유된 음성 작동 디바이스상의 호출 핸들링 | |
JP3651508B2 (ja) | 情報処理装置および情報処理方法 | |
JP3868423B2 (ja) | 音声認識を通じて構築された個人電話番号簿データベースを利用した音声自動接続サービス方法 | |
KR100695926B1 (ko) | 텔레비전 전화 통역 시스템 및 텔레비전 전화 통역 방법 | |
US6850609B1 (en) | Methods and apparatus for providing speech recording and speech transcription services | |
JP4150724B2 (ja) | 電話通訳システム | |
US20050206721A1 (en) | Method and apparatus for disseminating information associated with an active conference participant to other conference participants | |
JP2008099330A (ja) | 情報処理装置、携帯電話機 | |
JPH0918574A (ja) | 電話応答装置 | |
CN101569214A (zh) | 用于无线一键通的数据捕获的方法和设备 | |
KR100711286B1 (ko) | 전화 통역 보조 장치 및 그것을 이용한 전화 통역 시스템 | |
CN112887194B (zh) | 实现听障人士通话的交互方法、装置、终端及存储介质 | |
CN113194203A (zh) | 一种用于听障人士的沟通系统、接听拨打方法及通讯系统 | |
JP2019057777A (ja) | 自動音声応答システムの音声ガイダンス選択支援装置及びプログラム | |
JP2007306191A (ja) | 音声応答携帯電話機及び携帯電話機における音声応答方法 | |
JP2007306192A (ja) | 携帯電話機ネットワークの音声応答システム及び音声応答方法 | |
JP6389348B1 (ja) | 音声データ最適化システム | |
JP6386690B1 (ja) | 音声データ最適化システム | |
JP2009135986A (ja) | 音声応答携帯電話機及び携帯電話機における音声応答方法 | |
JP7233901B2 (ja) | 情報提示システム、情報提示装置、情報提示方法及びコンピュータプログラム | |
JP5326539B2 (ja) | 留守番電話システム、留守番電話サービスサーバ及び留守番電話サービス方法 | |
KR20020028438A (ko) | 음성과 문자 데이터를 통합한 채팅 서비스 방법 및 그기록 매체 | |
Goldman et al. | Voice Portals—Where Theory Meets Practice | |
JP2006146732A (ja) | 自動翻訳システム、自動翻訳サーバ装置及びそれらに用いる自動翻訳方法 | |
JP3716928B2 (ja) | 音声発呼装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210623 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210720 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220208 |