JP2006127148A - 音声自動対話システムにおける情報処理方法 - Google Patents

音声自動対話システムにおける情報処理方法 Download PDF

Info

Publication number
JP2006127148A
JP2006127148A JP2004314463A JP2004314463A JP2006127148A JP 2006127148 A JP2006127148 A JP 2006127148A JP 2004314463 A JP2004314463 A JP 2004314463A JP 2004314463 A JP2004314463 A JP 2004314463A JP 2006127148 A JP2006127148 A JP 2006127148A
Authority
JP
Japan
Prior art keywords
data
input
user
storage unit
history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004314463A
Other languages
English (en)
Inventor
Takahiro Ishikawa
貴洋 石川
Yasuhiro Tsuyuki
康弘 露木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2004314463A priority Critical patent/JP2006127148A/ja
Publication of JP2006127148A publication Critical patent/JP2006127148A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】
音声自動対話システムについてユーザビリティを向上させる。
【解決手段】
本発明の方法は、特定のユーザからデータ入力を受け付けた場合、入力データの種類毎に入力データを特定のユーザ用の履歴データ格納部に格納するステップと、対話プログラムに従って特定種類のデータについて特定のユーザから音声によるデータ入力を求める前に、特定のユーザ用の履歴データ格納部を参照して、使用可能な特定種類のデータが格納されているか判断する判断ステップと、特定のユーザ用の履歴データ格納部に使用可能な特定種類のデータが格納されている場合には、特定のユーザに特定種類のデータの入力を求めることなく、特定種類のデータを特定のユーザ用の履歴データ格納部から読み出して所定の処理を実施する処理実施ステップとを含む。
【選択図】図4

Description

本発明は、音声自動対話システムに関連する技術に関する。
近年、VoiceXML(Voice eXtensible Markup Language)を用いて音声自動対話システム(例えば窓口案内、施設予約、情報配信、通信販売などの各種サービスを、対話制御、音声認識、音声合成、音声認証、コンピュータテレフォニー・インタフェース(CTI:Computer Telephony Interface)プログラムなどにより実行するシステム)を構築するようになってきている。このような音声自動対話システムにおいては、様々な処理条件の下でユーザからの発話入力を待ち、発話された内容によって次の処理を行うといったことがVoiceXMLドキュメント(XMLベースの音声対話記述用のスクリプト言語であるVoiceXMLにより記述された音声による各種サービスアプリケーションであり、音声自動対話コンテンツとも呼ぶ)として記述されている。
上記音声自動対話システムでは、VoiceXMLインタプリタ(VoiceXMLドキュメントを解析する対話制御プログラム)が用いられるが、現在のVoiceXMLインタプリタは、音声自動対話コンテンツを解析・処理した際に作成した内部変数のデータを後の利用のために保持するようになっていない。そのため音声自動対話システムの利用者は、同じサービスや、類似の発話入力を要求するような他のサービスを利用した場合も、毎回、同じ発話をしなければならない。
この問題を具体的に図1を用いて説明する。まず、ユーザは、音声自動対話システムに接続する(ステップ(1))。接続すると、音声自動対話システムは「何の情報をお知りになりたいですか?」という質問を例えば音声でユーザに対して出力する(ステップ(2))。これに対して、ユーザは「天気予報」という応答を発話する(ステップ(3))。そうすると、音声自動対話システムは、「住所を仰ってください」と例えば音声でユーザの入力を促す(ステップ(4))。これに対して、ユーザは「静岡県」「沼津市」という応答を発話する(ステップ(5))。このようなユーザの入力に対して音声自動対話システムは、「6月26日の天気は晴れのち曇りです」(6月26日は本日)という応答をユーザに対して出力する(ステップ(6))。なお、この際データベースなどを参照する。
ここでユーザが音声自動対話システムとの対話を終了させず接続を継続させると、音声自動対話システムは、「何の情報をお知りになりたいですか?」とユーザに問う(ステップ(7))。そうするとユーザは、「乗り換え案内」と返答する(ステップ(8))。これに対し、音声自動対話システムは、「出発地を仰ってください」と例えば音声でユーザの入力を促す(ステップ(9))。そうすると、ユーザは「静岡県」「沼津市」という応答を発話する(ステップ(10))。このようなユーザの入力に対して音声自動対話システムは、「到着地を仰ってください」とユーザに入力を促す(ステップ(11))。これに対して、ユーザは「東京都」「品川」という応答を発話する(ステップ(12))。このようなユーザの入力に対して音声自動対話システムは、「8:40沼津駅発三島行き。9:10三島駅こだまXXX号東京行き」という応答をユーザに対して出力する(ステップ(13))。
このようにユーザは、「天気予報情報提供」及び「乗り換え案内」の2種類のサービスを選択しているが、どちらのサービスを利用する場合も、「地域」の発話を行わなければならない。自分の住所が変わることはあまりないが、毎回「地域」の発話を行わなければならず、サービス利用時間が余計にかかり、使いにくいサービスとなっている。
なお、特開2001−166785号公報には、事前に登録されている対話例を示すスクリプトに基づいて発話テキストを順次出力し、対話履歴を対話ログデータとして登録する対話ログデータベースにも同時に登録し、出力された発話テキストの内容を発話者に伝達し、発話者が自分の音声を音声データとして入力し、入力された音声データを記録しておき、音声データの記録が完了した後に、操作者が記録されている発話者の音声データに基づいて、対話ログデータベースの発話者の対話部分を書き起こすという技術が開示されている。但し、本公報記載の発明の目的は、容易に音声対話コーパスを作成することを目的としており、同一の対話者との対話において対話履歴を用いるわけではない。
また、特開2003−169147号公報には、情報を蓄積した情報データベースと、登録された顧客ごとの静的及び動的属性データ(例えば、生年月日や住所、過去の取引記録や利用履歴)を格納する属性データベースと、自動音声応答サーバとを有する顧客応答システムが開示されている。そして、自動音声応答サーバは、アクセスしてきた顧客を特定した場合にその特定された顧客をキーとして検索部によって属性データベースを検索し、その顧客に適合したメッセージ(誕生日を祝うなどの気配り機能のメッセージと、商品やサービスの販売促進のためのメッセージ)を判定部によって選択して自動音声応答プロンプトとしてその顧客に送出する。但し、本公報において属性データベースから読み出したデータは、ユーザの発話を省略可能とするために用いられてはいない。
さらに、特開平6−223104号公報には、以下の技術が開示されている。すなわち、自然言語でなされる対話について、先行する対話の構造を文脈として解析し、その解析結果を用いて次発話の意図を予測して解釈する。発話の表層的な構造から得られる情報を優先的に利用して発話間の関係と参話者の関心の履歴を解析し、対話の構造を記述をする。発話間の関係は、最も基本的な発話の関係を発話対として、対話の領域を限定せずに局所的なレベルと協調的な問題解決過程のレベルから認識する。参話者の関心は次発話に変形を施されて引き継がれたオブジェクトを検出してその変化を記述する。そして、次発話と関係を持つと考えられる先行発話をヒューリスティックスを用いて順位付けで選択し、省略語の補充や代名詞の指示語の同定を行って次発話の解釈を行う。よって、履歴データについては次発話の解釈に用いられるものであり、ユーザの発話を省略可能とするためには用いられていない。
特開2001−166785号公報 特開2003−169147号公報 特開平6−223104号公報
上で述べたように従来技術では、ユーザは音声自動対話システムに対して同じ内容の発話を毎回繰り返さなければならない場合がある。これでは、システムの使い勝手が悪く、ユーザは利用に際してストレスを感じ、さらに利用時間が長くなるという問題がある。
従って、本発明の目的は、音声自動対話システムについてユーザビリティを向上させるための新たな技術を提供することである。
本発明に係る情報処理方法は、特定のユーザからデータ入力を受け付けた場合、入力データの種類毎に入力データを特定のユーザ用の履歴データ格納部に格納するステップと、対話プログラムに従って特定種類のデータについて特定のユーザから音声によるデータ入力を求める前に、特定のユーザ用の履歴データ格納部を参照して、使用可能な特定種類のデータが格納されているか判断する判断ステップと、特定のユーザ用の履歴データ格納部に使用可能な特定種類のデータが格納されている場合には、特定のユーザに特定種類のデータの入力を求めることなく、特定種類のデータを特定のユーザ用の履歴データ格納部から読み出して所定の処理を実施する処理実施ステップとを含む。
このように履歴データ格納部に格納された過去の入力データが、同一種類のデータ入力をユーザに求める前に読み出されるため、ユーザにとっては発話の回数が減ってユーザビリティが向上する。
また、上で述べた入力データの種類が、入力データを保持する内部変数の名前により特定されるようにしてもよい。すなわち、変数名が同一であれば、ユーザに入力を求めることなく履歴データ格納部において当該変数名に対応して登録されている過去の入力データを用いるようにするものである。
さらに、上で述べた特定のユーザから履歴データの使用を選択された場合に、判断ステップ及び処理実施ステップを実施するようにしてもよい。過去のデータをそのまま使用できない場合もあるためである。
また、上で述べた判断ステップが、特定種類のデータが、特定のユーザ用の履歴データ格納部に登録された日時又は回数により使用可能か否かを判断するステップを含むようにしてもよい。一度だけ入力されたデータをそのまま使用するのではなく所定回数以上入力されたデータを用いるようにしても良い。またあまりに過去に入力されたデータをそのまま用いるのは問題がある場合もあるので、所定時間以上前の入力データについては使用不可と判断する場合もある。
本発明に係る情報処理方法をコンピュータに実行させるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブル・ディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等の記憶媒体又は記憶装置に格納される。また、ネットワークを介してディジタル信号にて頒布される場合もある。なお、処理途中のデータについては、コンピュータのメモリ等の記憶装置に一時保管される。
本発明によれば、音声自動対話システムについてユーザビリティを向上させることができる。
図2に本発明の一実施の形態に係る機能ブロック図を示す。音声自動対話システム100は、VoiceXMLインタプリタ10と、VoiceXMLドキュメント格納部11と、音声処理部12とを有する。音声処理部12は、スピーカ及びマイクと直接接続する場合や、電話回線などの通信回線と接続する場合などがある。さらに、音声処理部12には、音声認識処理、音声合成処理、音声認証処理、CTIプログラムなどが含まれる。VoiceXMLドキュメント格納部11は、音声自動対話システム100において提供されるサービスに必要となるVoiceXMLドキュメントが格納されている。
VoiceXMLインタプリタ10は、解析処理部1と、対話履歴使用設定部2と、対話履歴管理部3と、内部変数情報出力部4と、内部変数情報入力部5と、履歴データ格納部6とを有する。解析処理部1は、VoiceXMLドキュメント格納部11を参照し、VoiceXMLドキュメントを解析すると共に、当該VoiceXMLドキュメントに従って、音声処理部12、対話履歴使用設定部2及び対話履歴管理部3とデータのやり取りを行う。また、対話履歴使用設定部2は、対話履歴の使用がユーザにより指示されていれば、解析処理部1及び対話履歴管理部3に対話履歴の使用を前提とした処理を行うようにデータを保持する。対話履歴管理部3は、解析処理部1からの要求に応じて内部変数情報出力部4及び内部変数情報入力部5を制御する。
内部変数情報出力部4は、対話履歴管理部3からの指示に応じて、ユーザIDに対応して、今回ユーザから入力されたデータを、当該入力データが設定された内部変数の名前をファイル名に用いたファイルに登録し、履歴データ格納部6に格納する。例えば、「address」という内部変数に設定された入力データが、「静岡県沼津市」である場合には、図2に示すように「address.vxml.rireki」というファイルに「静岡県沼津市」というデータが登録される。同様に、「sports」という内部変数に設定された入力データが、「サッカー」である場合には、図2に示すように「sports.vxml.rireki」というファイルに「サッカー」というデータが登録される。本実施の形態では、内部変数の種類は、この内部変数名により特定されるものとする。
内部変数情報入力部5は、対話履歴管理部3からの指示に応じて、ユーザIDに対応して格納されているファイルのうち、今回データを設定すべき内部変数の名前をファイル名に含むファイルを履歴データ格納部6において探索し、特定された場合には当該ファイルの内容を今回データを設定すべき内部変数に設定する。例えば、今回データを設定すべき内部変数がsportsであれば、sports.vxml.rirekiというファイルを探索して、特定されればその内容である「サッカー」をsportsという内部変数に設定する。そして、設定完了を対話履歴管理部3を介して解析処理部1に返す。なお履歴データ格納部6にsports.vxml.rirekiというファイルが存在しなかった場合には、その旨を対話履歴管理部3を介して解析処理部1に通知する。
履歴データ格納部6は、ユーザID毎に、既に内部変数に設定されたことがある入力データを含み且つ当該内部変数名をファイル名に使用したファイルを格納している。図2の例では、ユーザID:881213のための履歴データ格納領域61と、ユーザID:881214のための履歴データ格納領域62と、ユーザID:881215のための履歴データ格納領域63とが設けられている。当然ユーザIDの数は、3に限定されるものではない。
図3(a)乃至(c)に、VoiceXMLドキュメント格納部11に格納されるVoiceXMLドキュメントの一例(概要)を示す。図3(a)は、メインの処理内容が規定されている「main.vxml」を示す。ここでは、「天気予報」情報提供、「乗り換え案内」のいずれかがサービスとして選択可能なことを示している。図3(b)は、「天気予報」情報提供の処理内容が規定されている「wether.vxml」を示す。ここでは、天気予報の場所を特定するため、addressという内部変数にデータが設定されることが示されている。図3(c)は、「乗り換え案内」の処理内容が規定されている「travel.vxml」を示す。ここでは、出発地を特定するためのaddressという内部変数と、到着地を特定するためのto_addressという内部変数とにデータが設定されることが示されている。
次に、図4乃至図6を用いて図2に示した音声自動対話システム100の処理フローを説明する。まず、サービス開始時に、ユーザからユーザIDを取得する(ステップS1)。なお、その際音声認証その他の認証処理等を行うことは周知であるからここでは説明を省略する。また、履歴データを使用するか否かの設定を処理開始時に行う場合には、本ステップにおいて解析処理部1が、履歴データを使用するか否かをユーザに対して問い合わせ、当該問い合わせに対するユーザからの返答に係るデータ(例えばYes/No)を対話履歴使用設定部2に出力する。対話履歴使用設定部2は、解析処理部1から履歴データ使用の設定データ(例えばYes/No)を受け取り、保持する。なお、履歴データの使用については、他の場面においても設定可能であり、その場合においても上で述べたのと同様の処理が行われる。一方、履歴データを使用するか否かについてデフォルト設定を例えばユーザDBに登録しておく場合もあり、その場合には対話履歴使用設定部2は、当該ユーザDBから履歴データ使用の設定データを読み出し、使用する。対話履歴使用設定部2は、対話履歴管理部3により参照され、履歴データの使用が設定されていれば対話履歴管理部3は解析処理部1の指示に応じて処理を実行する。
次に、解析処理部1は、VoiceXMLドキュメント格納部11を参照して、処理すべきVoiceXMLドキュメント内における所定範囲のデータ(コンテンツ)を読み出して、解析処理を実施する(ステップS3)。この処理については、例えばXMLパーサによりVoiceXMLドキュメントを分節し、処理内容を特定するものである。そして、解析処理部1は、解析結果から内部変数の設定が必要であるか判断する(ステップS5)。図3の例では、図3(b)や図3(c)のように「field name="address"」などのエレメントを検出したか否かで判断する。もし、内部変数の設定が必要ではない場合には、ステップS19に移行する。
一方、内部変数の設定が必要であると判断された場合には、解析処理部1は、対話履歴使用設定部2を参照して履歴データを使用する設定がなされているか確認する(ステップS7)。もし、履歴データの使用が設定されていないと判断されれば、端子Aを介して図5の処理に移行する。一方、履歴データの使用が設定されていると判断されれば、解析処理部1は、対話履歴管理部3に対し、ユーザのユーザIDを含み且つ今回の内部変数の名前のファイルに含まれるデータの要求を出力する。対話履歴管理部3は、要求に応じて内部変数情報入力部5に、指定された内部変数の名前のファイルが履歴データ格納部6に存在するか確認し、存在する場合には当該ファイルの内容を読み出すように命ずる。これに応じて内部変数情報入力部5は、履歴データ格納部6の指定ユーザIDの領域を指定の内部変数を用いて検索し、ファイルが存在するか確認する(ステップS9)。ファイルが存在する場合には、当該ファイルの内容を読み出す。
もしファイルが存在しないと判断された場合には(ステップS11:Noルート)、使用可能な履歴データは存在しないものとして端子Aを介して図5の処理に移行する。なお、内部変数情報入力部5は、ファイルが見つからなかった旨のデータを対話履歴管理部3を介して解析処理部1に出力する。一方、ファイルが存在すると判断された場合には(ステップS11:Yesルート)、内部変数情報入力部5は、当該ファイルを履歴データ格納部6から読み出し、対話履歴管理部3を介して解析処理部1に当該ファイルの内容を出力する。そうすると、解析処理部1は、データ確認処理を実施する(ステップS13)。このデータ確認処理は、「***(履歴データ)でよろしいですか?」といった、ユーザにデータ内容を確認するための出力を例えば音声処理部12を介して出力する。これに対してユーザは、「はい(Yes)/いいえ(No)」といった返答を入力する。そうすると音声処理部12は音声認識処理を実施して、処理結果を解析処理部1に出力する。解析処理部1は、音声処理部12の処理結果を受け取り、ユーザが「はい」などの肯定的入力を行っているか判断する(ステップS15)。もし、「いいえ」などの否定的入力を行っていると判断された場合には、端子Aを介して図5の処理に移行する。一方、「はい」などの肯定的入力を行ったと判断された場合には、解析処理部1は、対話履歴管理部3を介して内部変数情報入力部5に、読み出したファイルのデータ(履歴データ)の内部変数への設定を指示する。内部変数情報入力部5は、指示に応じて読み出したファイルのデータを内部変数にセットする(ステップS17)。なお、ステップS17については解析処理部1が内部変数に履歴データをセットするようにしてもよい。そうすると、解析処理部1は、VoiceXMLドキュメントに従って、所定の処理を実施する(ステップS19)。さらに、ステップS3乃至S21の処理を処理終了が指示されるまで繰り返す。
このように、ステップS5で特定された内部変数に対するデータの入力をユーザに求めることなく当該内部変数に対してデータが自動的にセットされるため、ユーザは同じような内容に対する発話回数を減らすことができ、ユーザビリティが向上する。
次に、端子Aを介して移行した後の処理について図5を用いて説明する。まず、解析処理部1は、音声処理部12に対して「***(入力が必要なデータ名)を仰ってください」というような音声出力を行わせる(ステップS31)。そして、ユーザによる音声入力を待つ。ユーザは、当該音声出力に応じて返答を音声入力する。そうすると、音声処理部12は、当該音声入力を受け付け、音声認識処理を実施し、認識結果を解析処理部1に出力する(ステップS33)。そして、ステップS13と同様に、データ確認処理を実施する(ステップS35)。すなわち、「***(認識結果)でよろしいですか?」といった、ユーザに内容を確認するための出力を例えば音声処理部12に出力する。これに対してユーザは、「はい(Yes)/いいえ(No)」といった返答を入力する。そうすると音声処理部12は音声認識処理を実施して、処理結果を解析処理部1に出力する。解析処理部1は、音声処理部12の処理結果を受け取り、ユーザが「はい」などの肯定的入力を行っているか判断する(ステップS37)。もし、「いいえ」などの否定的入力を行っていると判断された場合には、ステップS31に戻る。
一方、「はい」などの肯定的入力を行ったと判断された場合には、解析処理部1は、内部変数に入力データ(認識結果)を設定する(ステップS39)。また、ユーザIDと入力データと内部変数名とのセットを含む履歴登録要求を対話履歴管理部3に出力する。そうすると、対話履歴管理部3は、内部変数情報出力部4に対して、履歴データ格納部6内のユーザIDに対応する記憶領域に、入力データを含み且つ内部変数名からなるファイル名を有するファイルを登録するように命ずる。内部変数情報出力部4は、対話履歴管理部3からの命令に従って、履歴データ格納部6のユーザIDに対応する記憶領域内に、上記のようなファイルを生成して登録する(ステップS41)。この後、処理は端子Bを介して図4のステップS19に移行する。
以上のような処理を実施すれば、履歴データを使用する設定がなされていない場合、使用可能な履歴データが履歴データ格納部に格納されていない場合、履歴データがそのまま使用できなかった場合などは、ユーザに音声入力を求め、ユーザから受け付けた音声入力から内部変数にデータをセットすることができるようになる。
上で述べたように、履歴データが有効に用いられればユーザの発話回数は削減される。このようすを図6を用いて説明する。例えば、ユーザが使用する機器と音声自動対話システム100が接続されており(音声自動対話システム100に直接入力する場合には接続は不要)、さらにユーザIDの入力等が完了しているものとする。そうすると、音声自動対話システム100内におけるVoiceXMLインタプリタ10の解析処理部1は、VoiceXMLドキュメント格納部11から図3(a)のmain.vxmlファイルを読み出し、解析処理を実施する。そして、解析結果に従って、「何の情報をお知りになりたいですか?」という問い合わせするように音声処理部12に指示する。音声処理部12は、指示に従って出力を行う(ステップ(21))。これに対してユーザが「天気予報」という音声入力を行うと、音声処理部12は音声認識処理を行い、認識結果を解析処理部1に出力する(ステップ(22))。解析処理部1は、音声処理部12から認識結果を受け取ると、「天気予報」という回答及び図3(a)のmain.vxmlのファイルに従って、図3(b)のwether.vxmlというファイルの処理に移行する。ここで、内部変数addressに、天気予報の場所を設定する必要があることが分かる。そこで、対話履歴管理部3に内部変数addressの履歴データを取得するように要求する。対話履歴管理部3は、内部変数情報入力部5に、ユーザID及び内部変数addressで特定されるファイルを履歴データ格納部6内において探索させる。ここでは以前内部変数addressにデータを登録したことがあるものとする。従って、内部変数情報入力部5は、ユーザID及び内部変数addressで特定されるファイルのデータを読み出す。そうすると、図1のように「住所を仰ってください」といったような音声出力を行うことはなく、ステップS13における確認処理を行って確認が得られれば、解析処理部1は、内部変数に設定されたデータにより図示しないデータベースなどから得られた「6月26日の天気は晴れのち曇りです」といったデータを、音声処理部12に出力させる(ステップ(23))。
さらに、処理が終了しない場合には、解析処理部1は、VoiceXMLドキュメント格納部11から図3(a)のmain.vxmlファイルを読み出し、解析処理を実施する。そして、解析結果に従って、「何の情報をお知りになりたいですか?」という問い合わせするように音声処理部12に指示する。音声処理部12は、指示に従って出力を行う(ステップ(24))。これに対してユーザが「乗り換え案内」という音声入力を行うと、音声処理部12は音声認識処理を行い、認識結果を解析処理部1に出力する(ステップ(25))。解析処理部1は、音声処理部12から認識結果を受け取ると、「乗り換え案内」という回答及び図3(a)のmain.vxmlのファイルに従って、図3(c)のtravel.vxmlというファイルの処理に移行する。ここで、内部変数address及びto_addressに、出発地名及び到着地名を設定する必要があることが分かる。そこで、対話履歴管理部3に内部変数address及びto_addressの履歴データを取得するように要求する。対話履歴管理部3は、内部変数情報入力部5に、ユーザID及び内部変数address又はto_addressで特定されるファイルを履歴データ格納部6内において探索させる。ここでは以前内部変数addressにデータを登録したことがあるが、内部変数to_addressにはデータが未設定であるとする。そうすると、内部変数情報入力部5は、ユーザID及び内部変数addressで特定されるファイル及びユーザID及び内部変数to_addressで特定されるファイルを探索する。結果として、内部変数addressで特定されるファイルのみが抽出され、内部変数to_addressで特定されるファイルは抽出されない。そうすると、図1のように「出発地を仰ってください」といったような音声出力を行うことはなく、ステップS13における確認処理を行って確認が得られれば、内部変数addressに履歴データ格納部6から抽出されたファイルの内容が登録される。一方、不足している内部変数to_addressのために、「到着地を仰ってください」という出力が音声処理部12になされる。音声処理部12は上記のような質問がユーザに対して出力されるように処理を行う(ステップ(26))。これに対して、ユーザは、「東京都」「品川」という入力を行うので、当該入力を受け付け、音声処理部12は、音声認識処理を実施する(ステップ(27))。音声認識処理の結果は解析処理部1に出力される。解析処理部1は、認識結果を受け付け、ステップS35における確認処理を実施し、確認が得られれば、内部変数to_addressに入力されたデータを登録する。このようにして得られた内部変数address及びto_addressに設定されたデータにより図示しないデータベースなどから得られた「8:40 沼津駅発三島行き。9:10三島駅こだまXXX号東京行き」といったデータを、音声処理部12に出力させる(ステップ(28))。
このように、確認処理はあるが図1と図6を比較すれば、ユーザの発話回数は明らかに減少しており、繰り返し同じ発話を行わなければならないという手間を省くことができるようになっている。
以上本発明の一実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、図2に示した機能ブロックは一例であって、必ずしも実際のプログラムモジュールに対応するものではない。
また、図4のステップS11における使用可能な履歴データという判断については、単に履歴データ格納部6に該当ファイルが存在するという条件だけではなく、他の条件を付加するようにしても良い。例えば、3回など所定の回数以上同じ入力がなされているということを条件にしても良い。その場合には、履歴データ格納部6のファイルには、入力データだけではなく、入力回数のカウンタ値を登録しておく必要がある。また、あまり古い入力データについては使用しないような構成を採用する場合には、履歴データ格納部6のファイルに入力データの入力日時を登録しておき、当該入力日時が現在日時から例えば6ヶ月といったように所定期間内であることを確認して使用可能か否かを判断するようにしても良い。なお、履歴データ格納部6のファイルの使用履歴をさらに参照する場合もある。すなわち、入力日時は古いがそのまま使用した履歴が例えば1ヶ月など所定期間以内に存在する場合には、使用可能と判断するようにしても良い。
さらに、VoiceXMLドキュメントに適用した場合を説明したが、VoiceXMLでなくとも、ユーザとの対話により処理を進めてゆく音声自動対話システムに適用することも可能である。
また、上で述べた音声自動対話システム100は、コンピュータ装置であって、図7に示すように、メモリ2501(記憶部)とCPU2503(処理部)とハードディスク・ドライブ(HDD)2505(記憶部)と表示装置2509に接続される表示制御部2507とリムーバブル・ディスク2511用のドライブ装置2513と入力装置2515とネットワークに接続するための通信制御部2517とがバス2519で接続されている。オペレーティング・システム(OS:Operating System)及び本実施の形態における処理を実施するためのアプリケーション・プログラムは、HDD2505に格納されており、CPU2503により実行される際にはHDD2505からメモリ2501に読み出される。必要に応じてCPU2503は、表示制御部2507、通信制御部2517、ドライブ装置2513を制御して、必要な動作を行わせる。また、処理途中のデータについては、メモリ2501に格納され、必要があればHDD2505に格納される。本発明の実施の形態では、上で述べた処理を実施するためのアプリケーション・プログラムはリムーバブル・ディスク2511に格納されて頒布され、ドライブ装置2513からHDD2505にインストールされる。インターネットなどのネットワーク及び通信制御部2517を経由して、HDD2505にインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU2503、メモリ2501などのハードウエアとOS及び必要なアプリケーション・プログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。
(付記1)
特定のユーザからデータ入力を受け付けた場合、入力データの種類毎に前記入力データを前記特定のユーザ用の履歴データ格納部に格納するステップと、
前記対話プログラムに従って特定種類のデータについて前記特定のユーザから音声によるデータ入力を求める前に、前記特定のユーザ用の履歴データ格納部を参照して、使用可能な前記特定種類のデータが格納されているか判断する判断ステップと、
前記特定のユーザ用の履歴データ格納部に使用可能な前記特定種類のデータが格納されている場合には、前記特定のユーザに前記特定種類のデータの入力を求めることなく、前記特定種類のデータを前記特定のユーザ用の履歴データ格納部から読み出して所定の処理を実施する処理実施ステップと、
を含み、コンピュータに実行される情報処理方法。
(付記2)
前記入力データの種類が、前記入力データを保持する内部変数の名前により特定されることを特徴とする付記1記載の情報処理方法。
(付記3)
前記特定のユーザから履歴データの使用を選択された場合に、前記判断ステップ及び前記処理実施ステップを実施することを特徴とする付記1記載の情報処理方法。
(付記4)
前記判断ステップが、
前記特定種類のデータが、前記特定のユーザ用の履歴データ格納部に登録された日時又は回数により使用可能か否かを判断するステップ
を含む付記1記載の情報処理方法。
(付記5)
特定のユーザからデータ入力を受け付けた場合、入力データの種類毎に前記入力データを前記特定のユーザ用の履歴データ格納部に格納するステップと、
前記対話プログラムに従って特定種類のデータについて前記特定のユーザから音声によるデータ入力を求める前に、前記特定のユーザ用の履歴データ格納部を参照して、使用可能な前記特定種類のデータが格納されているか判断する判断ステップと、
前記特定のユーザ用の履歴データ格納部に使用可能な前記特定種類のデータが格納されている場合には、前記特定のユーザに前記特定種類のデータの入力を求めることなく、前記特定種類のデータを前記特定のユーザ用の履歴データ格納部から読み出して所定の処理を実施する処理実施ステップと、
をコンピュータに実行させるプログラム。
(付記6)
特定のユーザからデータ入力を受け付けた場合、入力データの種類毎に前記入力データを前記特定のユーザ用の履歴データ格納部に格納する手段と、
対話プログラムに従って特定種類のデータについて前記特定のユーザから音声によるデータ入力を求める前に、前記特定のユーザ用の履歴データ格納部を参照して、使用可能な前記特定種類のデータが格納されているか判断する判断手段と、
前記特定のユーザ用の履歴データ格納部に使用可能な前記特定種類のデータが格納されている場合には、前記特定のユーザに前記特定種類のデータの入力を求めることなく、前記特定種類のデータを前記特定のユーザ用の履歴データ格納部から読み出して所定の処理を実施する処理実施手段と、
を有する情報処理装置。
従来技術の対話シナリオの一例を示す図である。 本発明の一実施の形態における機能ブロック図である。 (a)乃至(c)はVoiceXMLドキュメントの概要を示す図である。 本実施の形態における処理フローの第1の部分を示す図である。 本実施の形態における処理フローの第2の部分を示す図である。 本実施の形態における対話シナリオの一例を示す図である。 コンピュータのブロック図である。
符号の説明
100 音声自動対話システム 10 VoiceXMLインタプリタ
11 VoiceXMLドキュメント格納部 12 音声処理部
1 解析処理部 2 対話履歴使用設定部
3 対話履歴管理部 4 内部変数情報出力部
5 内部変数情報入力部 6 履歴データ格納部

Claims (5)

  1. 特定のユーザからデータ入力を受け付けた場合、入力データの種類毎に前記入力データを前記特定のユーザ用の履歴データ格納部に格納するステップと、
    対話プログラムに従って特定種類のデータについて前記特定のユーザから音声によるデータ入力を求める前に、前記特定のユーザ用の履歴データ格納部を参照して、使用可能な前記特定種類のデータが格納されているか判断する判断ステップと、
    前記特定のユーザ用の履歴データ格納部に使用可能な前記特定種類のデータが格納されている場合には、前記特定のユーザに前記特定種類のデータの入力を求めることなく、前記特定種類のデータを前記特定のユーザ用の履歴データ格納部から読み出して所定の処理を実施する処理実施ステップと、
    を含み、コンピュータに実行される情報処理方法。
  2. 前記入力データの種類が、前記入力データを保持する内部変数の名前により特定されることを特徴とする請求項1記載の情報処理方法。
  3. 前記特定のユーザから履歴データの使用を選択された場合に、前記判断ステップ及び前記処理実施ステップを実施することを特徴とする請求項1記載の情報処理方法。
  4. 前記判断ステップが、
    前記特定種類のデータが、前記特定のユーザ用の履歴データ格納部に登録された日時又は回数により使用可能か否かを判断するステップ
    を含む請求項1記載の情報処理方法。
  5. 特定のユーザからデータ入力を受け付けた場合、入力データの種類毎に前記入力データを前記特定のユーザ用の履歴データ格納部に格納するステップと、
    対話プログラムに従って特定種類のデータについて前記特定のユーザから音声によるデータ入力を求める前に、前記特定のユーザ用の履歴データ格納部を参照して、使用可能な前記特定種類のデータが格納されているか判断する判断ステップと、
    前記特定のユーザ用の履歴データ格納部に使用可能な前記特定種類のデータが格納されている場合には、前記特定のユーザに前記特定種類のデータの入力を求めることなく、前記特定種類のデータを前記特定のユーザ用の履歴データ格納部から読み出して所定の処理を実施する処理実施ステップと、
    をコンピュータに実行させるプログラム。
JP2004314463A 2004-10-28 2004-10-28 音声自動対話システムにおける情報処理方法 Withdrawn JP2006127148A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004314463A JP2006127148A (ja) 2004-10-28 2004-10-28 音声自動対話システムにおける情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004314463A JP2006127148A (ja) 2004-10-28 2004-10-28 音声自動対話システムにおける情報処理方法

Publications (1)

Publication Number Publication Date
JP2006127148A true JP2006127148A (ja) 2006-05-18

Family

ID=36721853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004314463A Withdrawn JP2006127148A (ja) 2004-10-28 2004-10-28 音声自動対話システムにおける情報処理方法

Country Status (1)

Country Link
JP (1) JP2006127148A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003517A (ja) * 2006-06-26 2008-01-10 Nec System Technologies Ltd 音声対話装置、音声対話方法、およびプログラム
JP2009253912A (ja) * 2008-04-10 2009-10-29 Dainippon Printing Co Ltd コールセンターの回答分析方法およびコールセンターの回答分析システム
JP2009267469A (ja) * 2008-04-22 2009-11-12 Dainippon Printing Co Ltd コールセンターの自動化方法およびコールセンターシステム
JPWO2013190956A1 (ja) * 2012-06-19 2016-05-26 株式会社Nttドコモ 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
JP6196399B1 (ja) * 2016-07-26 2017-09-13 株式会社アセンド 電話システム
JP2017535823A (ja) * 2014-10-01 2017-11-30 エクスブレイン・インコーポレーテッド 音声および接続プラットフォーム
WO2019220791A1 (ja) * 2018-05-14 2019-11-21 株式会社Nttドコモ 対話装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008003517A (ja) * 2006-06-26 2008-01-10 Nec System Technologies Ltd 音声対話装置、音声対話方法、およびプログラム
JP4491438B2 (ja) * 2006-06-26 2010-06-30 Necシステムテクノロジー株式会社 音声対話装置、音声対話方法、およびプログラム
JP2009253912A (ja) * 2008-04-10 2009-10-29 Dainippon Printing Co Ltd コールセンターの回答分析方法およびコールセンターの回答分析システム
JP2009267469A (ja) * 2008-04-22 2009-11-12 Dainippon Printing Co Ltd コールセンターの自動化方法およびコールセンターシステム
JPWO2013190956A1 (ja) * 2012-06-19 2016-05-26 株式会社Nttドコモ 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
JP2017535823A (ja) * 2014-10-01 2017-11-30 エクスブレイン・インコーポレーテッド 音声および接続プラットフォーム
US10789953B2 (en) 2014-10-01 2020-09-29 XBrain, Inc. Voice and connection platform
JP6196399B1 (ja) * 2016-07-26 2017-09-13 株式会社アセンド 電話システム
WO2018020592A1 (ja) * 2016-07-26 2018-02-01 株式会社アセンド 電話システム
WO2019220791A1 (ja) * 2018-05-14 2019-11-21 株式会社Nttドコモ 対話装置
JPWO2019220791A1 (ja) * 2018-05-14 2021-02-12 株式会社Nttドコモ 対話装置
JP7033195B2 (ja) 2018-05-14 2022-03-09 株式会社Nttドコモ 対話装置

Similar Documents

Publication Publication Date Title
US7184539B2 (en) Automated call center transcription services
US11636430B2 (en) Device, system and method for summarizing agreements
US9210263B2 (en) Audio archive generation and presentation
US9361891B1 (en) Method for converting speech to text, performing natural language processing on the text output, extracting data values and matching to an electronic ticket form
US10818299B2 (en) Verifying a user using speaker verification and a multimodal web-based interface
CN109325091B (zh) 兴趣点属性信息的更新方法、装置、设备及介质
US8909532B2 (en) Supporting multi-lingual user interaction with a multimodal application
KR102431754B1 (ko) 인공지능기반 상담지원장치
TWI425500B (zh) 以數位語音中表現的單字索引數位語音
US9349367B2 (en) Records disambiguation in a multimodal application operating on a multimodal device
JP2007524928A (ja) 知的音声アプリケーション実行のためのマルチプラットフォーム対応推論エンジンおよび汎用文法言語アダプタ
KR20080020649A (ko) 비필사된 데이터로부터 인식 문제의 진단
JP2008506156A (ja) マルチスロット対話システムおよび方法
US20060069570A1 (en) System and method for defining and executing distributed multi-channel self-service applications
US20050234720A1 (en) Voice application system
JP3141833B2 (ja) ネットワークアクセスシステム
US20030195751A1 (en) Distributed automatic speech recognition with persistent user parameters
CN112102807A (zh) 语音合成方法、装置、计算机设备和存储介质
JP2006127148A (ja) 音声自動対話システムにおける情報処理方法
WO2019003395A1 (ja) コールセンター会話内容表示システム、方法及びプログラム
CN113744712B (zh) 智能外呼语音拼接方法、装置、设备、介质和程序产品
JP2002091473A (ja) 情報処理装置
RU2763691C1 (ru) Система и способ автоматизации обработки голосовых обращений клиентов в сервисные службы компании
CN114462376A (zh) 基于rpa和ai的庭审笔录生成方法、装置、设备及介质
JP2012108262A (ja) 対話内容抽出装置、対話内容抽出方法、そのプログラム及び記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080108