JP2007025036A - 音声対話処理方法及びシステム並びにそのためのプログラム - Google Patents
音声対話処理方法及びシステム並びにそのためのプログラム Download PDFInfo
- Publication number
- JP2007025036A JP2007025036A JP2005204191A JP2005204191A JP2007025036A JP 2007025036 A JP2007025036 A JP 2007025036A JP 2005204191 A JP2005204191 A JP 2005204191A JP 2005204191 A JP2005204191 A JP 2005204191A JP 2007025036 A JP2007025036 A JP 2007025036A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- dialogue
- data
- current
- dialog
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】利用者との対話レスポンスを短縮する。
【解決手段】本音声対話処理方法は、対話シナリオに関するデータを格納する対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定ステップと、特定された認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを現対話より後に発生する可能性のある対話に先立って起動するステップとを含む。このような処理を行うことにより、音声認識エンジンの起動時間を節約することができ、レスポンス時間を短縮させることができる。
【選択図】図1
【解決手段】本音声対話処理方法は、対話シナリオに関するデータを格納する対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定ステップと、特定された認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを現対話より後に発生する可能性のある対話に先立って起動するステップとを含む。このような処理を行うことにより、音声認識エンジンの起動時間を節約することができ、レスポンス時間を短縮させることができる。
【選択図】図1
Description
本発明は、音声自動対話処理技術に関する。
従来の音声自動対話システムでは、予め定められた対話シナリオに従って音声自動対話システムと利用者との対話を進めていく。この時、1対話(ここでは、1つの問いと当該問いに対する回答を期待する動作)の回答に応じて、いくつかあるうちの次に行うべき対話を対話シナリオの中から選択して、対話を進めて行く。回答を認識するためには、DTMF(Dial Tone Multi Frequency)認識エンジン又は音声認識エンジン(以下、認識エンジンと呼ぶ)に、利用者からの回答を認識するための認識文法を設定する必要がある。
このため、従来の音声自動対話システムでは、以下のような処理が行われている。(1)音声自動対話を行う対話シナリオエンジンは、実行しようとしている対話に対する利用者からの回答を認識するために、認識エンジンに回答を認識させるための語彙が含まれている認識文法を設定し、認識エンジンを起動する。(2)利用者から回答を促すための音声ガイダンスを再生する。(3)利用者が回答を発話する。(4)認識エンジンが利用者の回答を認識し、認識結果を対話シナリオエンジンに通知する。(5)対話シナリオエンジンは、利用者からの回答を基に、次に実行すべき対話を選択する。(6)以下、(1)から(5)を繰り返す。
なお、対話シナリオには、音声ガイダンス再生中にも利用者からの回答を受け付ける機能(バージイン機能)があるため、音声ガイダンス再生中にバックグラウンドで認識文法を設定することはできない。
また、特開平9−50290号公報には、処理量の増加を伴わずに、拡張性があり、かつ認識率を向上させる音声認識装置等が開示されている。具体的には、音声認識装置において、発話状態検出手段と、各発話状態に対応した複数の音声認識文法であるLRテーブル手段と、LRテーブル手段を使用して次の発話の音声認識を行う音声認識手段とを含み、次に予測される発話状態に対応した音声認識文法を使用して音韻認識を行うので、一般的な文法を使用する場合に較べて処理量が減少すると共に、不要な文法が含まれていないので認識率が向上するというものである。この公報では、LRテーブル手段を用意しておくことが主旨であって、LRテーブル手段が動作可能又は使用可能になるまでの時間については考慮されていない。
さらに、特開2003−58188号公報には、音声認識にあたって認識率の高い音声対話システムが開示されている。具体的には、本音声対話システムは、ユーザの発声を認識するための音声認識エンジンと、その認識結果に応じてユーザへの発話を作成する対話処理エンジンと、作成された発話を音声に合成するための音声合成エンジンと、音声認識のための音声パターンを含む辞書データを格納する音声認識辞書と、音声の入出力手段とを備える。さらにこの音声認識エンジンは、前回のユーザ発声の認識結果を音声認識辞書において探索し、探索された認識結果に関連する辞書データを抽出して自身の記憶領域内に設定するよう構成されている。従って、次回のユーザの発声の音声認識にあたっては、前回の認識結果に関連する辞書データが使用されるので、認識率が向上するというものである。しかし、実際のレスポンス速度の向上については考察されていない。
特開平9−50290号公報
特開2003−58188号公報
従来の音声自動対話システムにおいて利用者からの回答を認識させる場合、対話の開始直前に認識エンジンに対して認識文法を設定する必要がある。もし回答の選択肢が多い場合、すなわち認識語彙数が多い場合には、認識エンジンにおける認識文法の設定時間が長くなってしまい、音声ガイダンスを再生するまでの時間、すなわち音声対話の応答にかかる時間が増加してしまうという問題がある。
従って、本発明の目的は、利用者との対話におけるレスポンス時間を短縮するための技術を提供することである。
本発明に係る音声対話処理方法は、対話シナリオに関するデータを格納する対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定ステップと、特定された認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを現対話より後に発生する可能性のある上記対話に先立って起動するステップとを含む。このような処理を行うことにより、音声認識エンジンの起動時間を節約することができ、レスポンス時間を短縮させることができる。
また、上で述べた特定ステップにおいて、現対話における回答の可能性のある認識結果毎に、認識文法データを特定するようにしてもよい。その場合、現対話における回答の実際の認識結果に係る認識文法データに対応する音声認識エンジンを特定し、使用可能に設定するステップを実行する。このようにすれば、予め起動しておいた音声認識エンジンをユーザからの回答の音声認識処理に即座に用いることができるようになる。
なお、対話シナリオがVoiceXML(eXtensible Markup Language)に従って記述されている場合もある。この場合、現対話より後に発生する可能性のある対話を、より容易に抽出することができる。また、システム作成者は、本発明に係る音声対話処理方法の実施の有無を考慮することなく、対話シナリオを作成することができる。
本発明に係る方法をコンピュータに実行させるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブル・ディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等の記憶媒体又は記憶装置に格納される。また、ネットワークを介してディジタル信号にて頒布される場合もある。なお、処理途中のデータについては、コンピュータのメモリ等の記憶装置に一時保管される。
本発明によれば、利用者との対話におけるレスポンス時間を短縮することができる。
図1に本発明の一実施の形態に係るシステムの機能ブロック図を示す。例えば公衆回線網などのネットワーク1には、利用者が使用する複数の電話機3a乃至3cと、音声自動対話システム5とが接続されている。ネットワーク1は、公衆回線網ではなくIP電話の場合に使用されるIPネットワーク網の場合もある。音声自動対話システム5は、音声プラットフォーム51と、対話シナリオエンジン53と、対話データ格納部55と、認識エンジン管理機構57と、1又は複数の認識エンジン59とを有する。
音声プラットフォーム51は、ネットワーク1に接続されており、利用者に対する音声合成機能を有している。そして、利用者からの音声に対して音声認識処理を実施する認識エンジン59と連携して、対話シナリオエンジン53からの指示に従って利用者との対話処理を実施する。対話シナリオエンジン53は、対話データ格納部55に格納された対話シナリオに従って対話が進むように、音声プラットフォーム51及び認識エンジン管理機構57に指示を出力する。認識エンジン管理機構57は、対話シナリオエンジン53からの指示に応じて、対話データ格納部55に格納された認識文法データを用いて認識エンジン59を起動する。以下に詳細に述べるが、後に発生する可能性のある対話に用いられる認識エンジン59を前もって起動する。また、音声プラットフォーム51に対して適切な認識エンジン59を設定する。音声プラットフォーム51は、設定され且つ既に起動されている認識エンジン59を用いる。
次に図1に示した音声自動対話システム5の処理を図2を用いて説明する。まず、利用者が例えば電話機3aを用いて音声自動対話システム5に発呼すると、音声プラットフォーム51は着呼に応答して回線を接続し、対話シナリオエンジン53に通知する。対話シナリオエンジン53は、音声プラットフォーム51からの通知に応じて、対話データ格納部55に格納されている対話シナリオ・データをロードする(ステップS1)。
ここで対話データ格納部55に格納されるデータについて、図3を用いて説明しておく。本実施の形態では、対話シナリオ・データは、周知のVoiceXMLで記述されている。対話シナリオ・データの作成者は、本実施の形態における特徴を考慮することなく、VoiceXMLで通常の対話シナリオ・データを作成すればよい。ここでは、main.vxmlという対話シナリオデータ・ファイル101において、menu.vxmlという下位の階層の対話シナリオデータ・ファイル102を参照している。対話シナリオデータ・ファイル102では、利用者にサービス選択を行わせるための対話シナリオが記述されており、当該対話で用いられる認識文法データ・ファイル106(serv.grxml)と、「録音」というサービスが利用者により選択された場合に用いられる対話シナリオが記述されている対話シナリオデータ・ファイル103(rec.vxml)と、「転送」というサービスが利用者により選択された場合に用いられる対話シナリオが記述されている対話シナリオデータ・ファイル104(trans.vxml)と、「再生」というサービスが利用者により選択された場合に用いられる対話シナリオが記述されている対話シナリオデータ・ファイル105(play.vxml)とが参照されている。
なお、認識文法データ・ファイル106は、認識エンジン59に回答を認識させるための語彙が含まれている認識文法を記述したものであって、図3に示したように、「ろくおん」と認識した場合には認識エンジン59が「録音」と出力し、「てんそう」と認識した場合には認識エンジン59が「転送」と出力し、また「てんそー」と認識した場合にも認識エンジン59が「転送」と出力し、「さいせい」と認識した場合には認識エンジン59が「再生」と出力し、さらに「さいせー」と認識した場合にも認識エンジン59が「再生」と出力するように、記述されている。認識文法データ・ファイル106に規定されていない認識結果の場合には、出力を行わないか、認識不能という出力がなされる。
また、対話シナリオデータ・ファイル103では、認識文法データ・ファイル107(rec.grxml)が参照されている。対話シナリオデータ・ファイル104では、認識文法データ・ファイル108(trans.grxml)が参照されている。対話シナリオデータ・ファイル105では、認識文法データ・ファイル109(play.grxml)が参照されている。
ステップS1では、例えば対話シナリオデータ・ファイル101乃至105をロードする。
そして、対話シナリオエンジン53は、最初に実施すべき対話を特定し、当該対話で使用する認識文法データのリスト(認識文法リスト)を生成し、認識エンジン管理機構57に通知する(ステップS3)。図3の例では、最初にサービス選択を利用者に求める対話を行うので、認識文法データ・ファイル106の名称が特定される。なお、最初の対話であるから認識エンジンによる認識結果はなく、従って認識文法リストは、図4(a)に示すようなデータとして構成される。すなわち、認識結果はNullであり、認識文法データ・ファイルとして、認識文法データ・ファイル106の名称serv.grxmlが特定されている。
認識エンジン管理機構57は、対話シナリオエンジン53から認識文法リストを受信し、当該認識文法リストに従って認識エンジン59を起動し、起動された認識エンジン59を音声プラットフォーム51に登録する(ステップS5)。図4(a)に示すような認識文法リストに含まれる認識文法データ・ファイルを対話データ格納部55から読み出し、当該認識文法データ・ファイルを設定した認識エンジン59を起動する。認識エンジン59の起動は、音声プラットフォーム51に接続される回線毎に行われる。図4(a)及び図3の例では、認識文法データ・ファイル106に対応する認識エンジン59が起動され、音声プラットフォーム51に登録され、サービス選択についての音声入力に対する認識処理に用いられる。
また、対話シナリオエンジン53は、対話シナリオデータ・ファイルをさらに解析して現対話の次に実行される可能性のある対話を特定し、現対話において認識される可能性のある利用者回答とその利用者回答によって開始される対話で用いられる認識文法データ・ファイル名とを含む認識文法リストを生成し、認識エンジン管理機構57に通知する(ステップS7)。図3の例では、対話シナリオデータ・ファイル102乃至105を解析して次に実行される可能性のある対話、具体的には「録音」「転送」「再生」についての対話を特定し、当該対話において用いられる認識文法データ・ファイルの名称を特定して、図4(b)に示すような認識文法リストを生成する。すなわち、図4(b)に示すように、「録音」という認識結果に関連する認識文法データ・ファイルの名称としてrec.grxmlが特定され、「転送」という認識結果に関連する認識文法データ・ファイルの名称としてtrans.grxmlが特定され、「再生」という認識結果に関連する認識文法データ・ファイルの名称としてplay.grxmlが特定される。なお、1つの認識結果に対して複数の認識文法データ・ファイルが特定されることもある。
認識エンジン管理機構57は、対話シナリオエンジン53から認識文法リストを受信し、当該認識文法リストに従って前もって認識エンジン59を起動する(ステップS9)。対話データ格納部55から認識文法リストに含まれる認識文法データ・ファイルを設定して、認識エンジン59を起動する。図4(b)の例では、3種類の認識エンジン59を起動する。なお、まだいずれを用いるか決定されていないので、音声プラットフォーム51には登録しない。認識文法リストには、次の対話において用いられる可能性のある認識文法データ・ファイル名が含まれているので、現対話では、今回の認識文法リストに含まれる認識文法データ・ファイルを設定して起動した認識エンジン59を用いることはない。しかし、このように前もって起動しておくことにより、利用者回答の認識結果を得てから起動するより、次の対話を切れ目無くスムーズに進めることができるようになり、利用者に対して従前では対話間に存在していたわずかな待ち時間を感じさせることがなくなる。すなわち自然な形の音声のやりとりを行うことができるようになる。本ステップにおいて起動された認識エンジン59についても、音声プラットフォーム51に接続されている回線毎に、認識文法リストに含まれる認識結果に対応して管理されている。
一方、対話シナリオエンジン53は、現対話の音声ガイダンスの再生を音声プラットフォーム51に依頼する(ステップS11)。音声プラットフォーム51の音声合成機能は、指示に従って音声ガイダンスを出力する。
そして、音声プラットフォーム51は、音声ガイダンスに応答して発声した利用者の回答を認識エンジン59に認識させ、認識結果を対話シナリオエンジン53及び認識エンジン管理機構57に通知する(ステップS13)。対話シナリオエンジン53は、認識結果に応じて対話シナリオに従った処理を実施する。そして、対話シナリオエンジン53は、この認識結果が最後の回答であるか判断する(ステップS15)。最後の回答であれば、例えばお礼の音声ガイダンスを音声プラットフォーム51に出力させて回線を切断させるなどの所定の処理を行う。
一方、最後の回答ではない場合には、認識エンジン管理機構57は、音声プラットフォーム51から通知された認識結果から次に使用される認識エンジン59を特定し、当該認識エンジン59を音声プラットフォーム51に登録する(ステップS17)。このようにすれば、認識エンジン59の起動時間を待たずして次の対話に対処することができるようになる。なお、登録されなかった認識エンジン59については破棄する。
また、ステップS17と同時に対話シナリオエンジン53は、ステップS7の処理を実施する。以下、対話が終了するまでステップS7乃至S17を繰り返す。
このような処理を実施すれば、利用者に対するレスポンス時間を短縮することができ、スムーズ且つ自然な形の対話を行うことができるようになる。
以上本発明の一実施の形態を述べたが、本発明はこれに限定されるものではない。例えば図1のシステム機能ブロック図は一例であって、例えば認識エンジン管理機構57が対話シナリオエンジン53を含むような構成であっても良い。
なお、上では起動されたが音声プラットフォーム51に登録されなかった認識エンジン59については破棄すると述べたが、破棄せず再利用するようにしても良い。再利用の方式には様々な手法が可能である。また、次の対話で用いられる可能性のある認識文法データ・ファイルを特定するようにしているが、さらに後の対話で用いられる可能性のある認識文法データ・ファイルを特定して、認識文法リストに含めるようにしても良い。
音声自動対話システム5は、1台のコンピュータで実装しても良いし、並列サーバ、マルチCPUのコンピュータ、グリッドなどで実装しても良い。これらのシステム資源を有効利用して、サービス品質を高めることができる。
(付記1)
対話シナリオに関するデータを格納する対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定ステップと、
特定された前記認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを前記現対話より後に発生する可能性のある対話に先立って起動するステップと、
を含み、コンピュータに実行される音声対話処理方法。
対話シナリオに関するデータを格納する対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定ステップと、
特定された前記認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを前記現対話より後に発生する可能性のある対話に先立って起動するステップと、
を含み、コンピュータに実行される音声対話処理方法。
(付記2)
前記特定ステップにおいて、前記現対話における回答の可能性のある認識結果毎に、前記認識文法データを特定し、
さらに、
前記現対話における回答の実際の認識結果に係る前記認識文法データに対応する音声認識エンジンを特定し、使用可能に設定するステップ
を含む付記1記載の音声対話処理方法。
前記特定ステップにおいて、前記現対話における回答の可能性のある認識結果毎に、前記認識文法データを特定し、
さらに、
前記現対話における回答の実際の認識結果に係る前記認識文法データに対応する音声認識エンジンを特定し、使用可能に設定するステップ
を含む付記1記載の音声対話処理方法。
(付記3)
前記対話シナリオがVoiceXMLに従って記述されていることを特徴とする付記1又は2記載の音声対話処理方法。
前記対話シナリオがVoiceXMLに従って記述されていることを特徴とする付記1又は2記載の音声対話処理方法。
(付記4)
起動された前記音声認識エンジンが、前記利用者毎に管理されることを特徴とする付記1乃至3のいずれか1つ記載の音声対話処理方法。
起動された前記音声認識エンジンが、前記利用者毎に管理されることを特徴とする付記1乃至3のいずれか1つ記載の音声対話処理方法。
(付記5)
前記現対話における回答の実際の認識結果以外の認識結果に係る前記認識文法データに対応する音声認識エンジンを管理するステップ
をさらに含む付記2記載の音声対話処理方法。
前記現対話における回答の実際の認識結果以外の認識結果に係る前記認識文法データに対応する音声認識エンジンを管理するステップ
をさらに含む付記2記載の音声対話処理方法。
(付記6)
対話シナリオに関するデータを格納する対話データ格納部と、
前記対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定手段と、
特定された前記認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを前記現対話より後に発生する可能性のある対話に先立って起動する手段と、
を有する音声対話システム。
対話シナリオに関するデータを格納する対話データ格納部と、
前記対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定手段と、
特定された前記認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを前記現対話より後に発生する可能性のある対話に先立って起動する手段と、
を有する音声対話システム。
(付記7)
対話シナリオに関するデータを格納する対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定ステップと、
特定された前記認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを前記現対話より後に発生する可能性のある対話に先立って起動するステップと、
をコンピュータに実行させるためのプログラム。
対話シナリオに関するデータを格納する対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定ステップと、
特定された前記認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを前記現対話より後に発生する可能性のある対話に先立って起動するステップと、
をコンピュータに実行させるためのプログラム。
1 ネットワーク 3a,3b,3c 電話機
5 音声自動対話システム
51 音声プラットフォーム 53 対話シナリオエンジン
55 対話データ格納部 57 認識エンジン管理機構
59 認識エンジン
5 音声自動対話システム
51 音声プラットフォーム 53 対話シナリオエンジン
55 対話データ格納部 57 認識エンジン管理機構
59 認識エンジン
Claims (5)
- 対話シナリオに関するデータを格納する対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定ステップと、
特定された前記認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを前記現対話より後に発生する可能性のある対話に先立って起動するステップと、
を含み、コンピュータに実行される音声対話処理方法。 - 前記特定ステップにおいて、前記現対話における回答の可能性のある認識結果毎に、前記認識文法データを特定し、
さらに、
前記現対話における回答の実際の認識結果に係る前記認識文法データに対応する音声認識エンジンを特定し、使用可能に設定するステップ
を含む請求項1記載の音声対話処理方法。 - 前記対話シナリオがVoiceXMLに従って記述されていることを特徴とする請求項1又は2記載の音声対話処理方法。
- 対話シナリオに関するデータを格納する対話データ格納部と、
前記対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定手段と、
特定された前記認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを前記現対話より後に発生する可能性のある対話に先立って起動する手段と、
を有する音声対話システム。 - 対話シナリオに関するデータを格納する対話データ格納部に格納されるデータから、現対話より後に発生する可能性のある対話において用いられ且つ利用者からの回答を認識するための語彙が登録されている認識文法データを特定する特定ステップと、
特定された前記認識文法データを用いて、当該認識文法データに対応する音声認識エンジンを前記現対話より後に発生する可能性のある対話に先立って起動するステップと、
をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005204191A JP2007025036A (ja) | 2005-07-13 | 2005-07-13 | 音声対話処理方法及びシステム並びにそのためのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005204191A JP2007025036A (ja) | 2005-07-13 | 2005-07-13 | 音声対話処理方法及びシステム並びにそのためのプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007025036A true JP2007025036A (ja) | 2007-02-01 |
Family
ID=37785921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005204191A Withdrawn JP2007025036A (ja) | 2005-07-13 | 2005-07-13 | 音声対話処理方法及びシステム並びにそのためのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007025036A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020012954A (ja) * | 2018-07-18 | 2020-01-23 | 株式会社東芝 | 情報処理装置、情報処理方法、およびプログラム |
-
2005
- 2005-07-13 JP JP2005204191A patent/JP2007025036A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020012954A (ja) * | 2018-07-18 | 2020-01-23 | 株式会社東芝 | 情報処理装置、情報処理方法、およびプログラム |
CN110808039A (zh) * | 2018-07-18 | 2020-02-18 | 株式会社东芝 | 信息处理装置、信息处理方法以及记录介质 |
US11062705B2 (en) | 2018-07-18 | 2021-07-13 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method, and computer program product |
JP7000268B2 (ja) | 2018-07-18 | 2022-01-19 | 株式会社東芝 | 情報処理装置、情報処理方法、およびプログラム |
CN110808039B (zh) * | 2018-07-18 | 2023-12-01 | 株式会社东芝 | 信息处理装置、信息处理方法以及记录介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10110741B1 (en) | Determining and denying call completion based on detection of robocall or telemarketing call | |
US9015048B2 (en) | Incremental speech recognition for dialog systems | |
US7881938B2 (en) | Speech bookmarks in a voice user interface using a speech recognition engine and acoustically generated baseforms | |
US9343063B2 (en) | System and method for customized voice response | |
US8358747B2 (en) | Real time automatic caller speech profiling | |
US6775651B1 (en) | Method of transcribing text from computer voice mail | |
US8929519B2 (en) | Analyzing speech application performance | |
US7415415B2 (en) | Computer generated prompting | |
JP2010526349A (ja) | 自動案内システムの文法調整 | |
CN108962233A (zh) | 用于语音对话平台的语音对话处理方法及系统 | |
US8185400B1 (en) | System and method for isolating and processing common dialog cues | |
US10199035B2 (en) | Multi-channel speech recognition | |
US11336767B2 (en) | Methods and apparatus for bypassing holds | |
US7881932B2 (en) | VoiceXML language extension for natively supporting voice enrolled grammars | |
US8229750B2 (en) | Barge-in capabilities of a voice browser | |
US7706512B2 (en) | Method and apparatus for voice message editing | |
US20220198140A1 (en) | Live audio adjustment based on speaker attributes | |
KR100742408B1 (ko) | 화자 종속 음성 인식 방법 및 음성 인식 시스템 | |
US20100076747A1 (en) | Mass electronic question filtering and enhancement system for audio broadcasts and voice conferences | |
WO2007045187A1 (fr) | Procede, appareil et systeme pour executer la fonction de conversion texte-parole | |
US7460999B2 (en) | Method and apparatus for executing tasks in voice-activated command systems | |
US7451086B2 (en) | Method and apparatus for voice recognition | |
JP2007025036A (ja) | 音声対話処理方法及びシステム並びにそのためのプログラム | |
US20020091530A1 (en) | Interactive voice response system and method having voice prompts with multiple voices for user guidance | |
US11062693B1 (en) | Silence calculator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081007 |