JP2002527829A - 自動照会方法およびシステム - Google Patents

自動照会方法およびシステム

Info

Publication number
JP2002527829A
JP2002527829A JP2000576387A JP2000576387A JP2002527829A JP 2002527829 A JP2002527829 A JP 2002527829A JP 2000576387 A JP2000576387 A JP 2000576387A JP 2000576387 A JP2000576387 A JP 2000576387A JP 2002527829 A JP2002527829 A JP 2002527829A
Authority
JP
Japan
Prior art keywords
user
information
presentation
query
scenario
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000576387A
Other languages
English (en)
Inventor
エム ウェー クラッセン アントニウス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Electronics NV filed Critical Philips Electronics NV
Publication of JP2002527829A publication Critical patent/JP2002527829A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2452Query translation
    • G06F16/24522Translation of natural language queries to structured queries
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】 ユーザからの照会に自動的に応答するシステム(10)は、対話マネージャ(50)を具え、この対話マネージャ(50)は、機械制御された人間−機械対話を実行し、複数の予め決められた照会項目を決定する。対話マネージャ(50)は、複数の情報項目を、記憶装置(52)から、前記照会項目に応じて検索する。前記システムは、さらに、プレゼンテーションマネージャ(90)を具え、このプレゼンテーションマネージャ(90)は、前記情報項目を与える好適な方法を反映する前記ユーザの目的を決定する。前記プレゼンテーションマネージャ(90)は、プレゼンテーションシナリオを、予め決められたプレゼンテーションシナリオの組(96)から、前記決定された目的に応じて選択する。少なくとも1つの自然言語句を発生し、前記得られた情報を前記選択されたプレゼンテーションシナリオにしたがって与える。音声発生器(60)は、前記発生された句を前記ユーザに言葉で与える。

Description

【発明の詳細な説明】
【0001】 本発明は、ユーザからの照会に自動的に応じる方法において、 機械制御された人間−機械対話を実行し、前記ユーザに言葉で与えるべき情報
を指定する複数の予め決められた照会項目を決定するステップと、 前記照会項目に応じて記憶装置から複数の情報項目を検索するステップと、 少なくとも1つの自然言語句を発生し、前記得られた情報項目をプレゼンテー
ションシナリオに従って与えるステップと、 前記発生された句を前記ユーザに言葉で与えるステップとを具える方法に関す
る。
【0002】 本発明は、さらに、ユーザからの照会に自動的に応じるシステムにおいて、 機械制御された人間−機械対話を実行し、前記ユーザに言葉で与えるべき情報
を指定する複数の予め決められた照会項目を決定する手段と、 前記照会項目に応じて記憶装置から複数の情報項目を検索する手段と、 少なくとも1つの自然言語句を発生し、前記得られた情報項目をプレゼンテー
ションシナリオに従って与える手段と、 前記発生された句を前記ユーザに言葉で与える手段とを具えるシステムに関す
る。
【0003】 例えば、旅行情報を得る自動照会システムは、自動人間−機械対話を使用する
。代表的に、ユーザは、電話を使用する前記照会システムとの接続を確立する。
前記機械とユーザとの間の自由音声対話において、前記機械は、データベースの
ような記憶装置から所望の情報を得るのに必要な多数の照会項目を確立しようと
する。前記対話中、前記システムは、代表的に、初期照会を発する。旅行情報シ
ステムに関して、このような初期照会を、「どこの駅からどこの駅に旅行したい
か?」としてもよい。続く対話中、前記システムは、音声認識技術を使用し、前
記ユーザの発話から照会項目を抽出する。例えば、自動公共輸送機関情報システ
ムは、照会を行うために、出発地と、目的地と、旅行の所望の日時とを得る必要
がある。前記システムは、検証/確認命令を発し、照会項目を正確に認識したこ
とを検証する。まだ文言が認識されていない照会項目を確立するために、前記シ
ステムは、「何時出発しますか?」のような明示的な質問を発してもよい。前記
質問を、検証命令と組み合わせてもよい。例えば、アムステルダムが出発地とし
て認識されているが、出発時間またはアムステルダムにおける特定の出発駅が未
知の状況において、前記システムは、「何時アムステルダム中央駅から出発した
いか?」と聞くことができる。すべてのその必須の照会項目が認識されたら、こ
の照会に対する答えが記憶装置から得られる。この結果として、前記ユーザに口
語形態において与えるべき正確な情報項目が生じる。通常、前記情報項目の文字
表現が、プレゼンテーションシナリオと呼ばれる、予め形成された句または文テ
ンプレートの連続に挿入される。通常、前記テンプレートを韻律的に補足する。
例えば、標本化された句/単語の形態において適切な音声表現を利用できない場
合、韻律的に補足した文書を、音声合成技術を使用する発話に変換してもよい。
この音声出力をユーザにフィードバックする。与えるべき情報項目の性質に応じ
て、好適なプレゼンテーションシナリオを、予め決定されたシナリオの集合から
選択してもよい。例えば、異なったシナリオを、以下の状況のいずれかに使用し
てもよい。 適切な接続が見つからない。 1つの接続が見つかった。 2つ以上の接続が見つかった。 接続が乗り換えを含まない。 接続が1つの乗り換えを含む。 接続が多数の乗り換えを含む。
【0004】 慣例的に、照会システムは、人間のオペレータによって操作される。このオペ
レータは、ユーザとの対話を行い、照会項目を前記システムに入力する。前記オ
ペレータは、次に、データベース対話を行い、結果は画面に表示される。前記オ
ペレータは、要求された情報をユーザに読み上げる。この慣例的な照会システム
は、前記オペレータ中心となり、エンドユーザの方を向かない傾向がある。自動
照会システムは、これらのシステムの周囲に、対話機能およびプレゼンテーショ
ン機能を追加することによって構築される。これは、しばしば、固定またはメニ
ュー駆動対話案の形態における前記システムのユーザ指向の欠如を露呈する。
【0005】 「RAILTEL電話に基づくシステム」、ICSLP 1996会報、Vo
l.1、55〜553ページより、前記ユーザの意向を、前記人間−機械対話中
に考慮するように設計することが知られている。これは、前記対話中の認識率お
よび確認プロセスを改善する。ユーザが情報項目のいくつかの組(例えば、列車
またはバスに関する情報、すなわち、主な時刻表情報、遅れに関する情報等)の
間で選択することができる、または、情報を与える、または、自動電話交換台と
して働くようないくつかのサービスの間で選択することができるシステムに関す
る対話中の選択プロセスも改善することができる。
【0006】 本発明の目的は、よりユーザ指向で、自動的に動作する照会システムの受け入
れを強調する、上述した種類の方法およびシステムを提供することである。
【0007】 前記目的を達成するために、前記方法は、ユーザの発話に基づいて、予め決め
られた目的の組から、前記情報項目を与える適切な方法を反映する前記ユーザの
目的を決定するステップと、前記決定された目的に応じてプレゼンテーションシ
ナリオの予め決められた組から前記プレゼンテーションシナリオを選択するステ
ップとを具えることを特徴とする。
【0008】 本発明は、多くの人間−機械対話において、前記情報をもっとも効果的に与え
る方法に影響する前記ユーザの特定の目的を前記システムが決定または推論でき
るようにする情報を、明示的または暗示的に与えることを実現した。例えば、多
くの状況において、前記照会中に検索された情報項目のどれがユーザにとって重
要であるかを、前記対話から得ることができる。一般的に列車旅行情報照会にお
いて、通常、出発時間は、ユーザに彼が出発駅に到着すべき時間を決定させる最
も重要なことである。しかしながら、ユーザが、AからBに旅行したく、午前9
時ごろに到着したいことを指示する場合、彼は目的の駅における正確な到着時間
にもきわめて興味があると推測してもよい。少なくとも、AからBへの午前9時
頃に出発する接続に関して聞くユーザと比較した場合、よりそうである。到着時
間を前記提示において早く言うことは、ユーザが、前記接続の到着時間が実際に
彼の要求に対応するかどうかをチェックすることを可能にし、違う場合、この入
ってくる情報を破棄することを可能にする。シナリオを前記照会の結果として得
られた情報にのみ基づいて選択する代わりに、前記ユーザの目的に設えたプレゼ
ンテーションシナリオを選択することによって、前記ユーザは、前記システムに
より理解されていると感じる。したがって、前記システムの受け入れは増加する
【0009】 ユーザが情報の異なった組へアクセスすることを許可する、または、いくつか
のサービスを提供するシステムにおいて、前記対話は、通常、情報のどの組にお
いて、または、どのサービスにおいて前記ユーザが興味をもっているかを決定す
ることを含む。このような前記目的の決定とそれに応じた動作は、本発明の問題
ではない。本発明は、特定の情報項目を効果的に与える方法に影響する前記ユー
ザの目的を決定することに関係し、情報項目またはサービスのどの組を前記ユー
ザが利用したがっているかを決定することには関係しない。
【0010】 多くの場合において、前記情報を最も効果的に与える方法に影響する前記ユー
ザの目的を決定するために、前記対話段階中に前記ユーザに追加の質問を与える
ことは望ましくない。これは、前記対話段階を長引かせ、その瞬時において、所
望の情報がすべて利用可能であることが確実でさえないかもしれない。例えば、
前記ユーザが列車/バスの出発時間または到着時間に最も興味があるかどうかを
明示的に聞くことは、前記照会の結果が列車もバスも前記到着/出発時間にかか
わらず利用不可能である場合、ひょっとするといらいらさせるかもしれない。
【0011】 従属請求項2に規定したような実施形態において、前記情報項目のどれが前記
ユーザにとって比較的重要であるかを決定する。前記ユーザは、どの項目が重要
なのかを明示的に示してもよい。例えば、ユーザは、「Xを午後8時頃に出発す
る列車のYへの到着時間が知りたい」と言ってもよい。この発話から、到着時間
が最も重要であると決定することができる。前記ユーザは、どの項目が重要であ
るかを明示的に示してもよい。例えば、「Yで午前10時にミーティングがある
。Xから出発する最適な列車はなに?」という発話から、正確な到着時間が出発
時間より重要であると決定してもよい。前記情報項目の相対的重要性を反映する
プレゼンテーションシナリオを選択する。従属請求項4において規定したような
好適実施形態において、より重要な項目を、前記提示において比較的早く与える
。例えば、出発時間が最も重要な場合、前記出力列を、「午後7時15分(にX
を出発する)の列車があります。Yには7時55分に到着します。」とすること
ができる。到着時間が最も重要な場合、前記文を、「Yに午後7時55分に到着
する列車があります。Xを7時15分に出発します。」とすることができる。最
も重要な項目を絶対名辞において最初の情報項目として表す必要はないことがわ
かるであろう。会話から初期文を除いて、一貫した自然言語会話において、文の
最初の句は、しばしば、与えられた情報を与える。これらは、やってくる新たな
情報に、先行する会話において確立された情報項目をリンクさせる。項目を強調
する他の技術を使用してもよい。例えば、ひょっとすると文のアクセントと組み
合わせて、特定のマークされた構文または句を使用することによる。例えば、ユ
ーザが、午前12時30分以降のAからBへを取れるかどうかを問い合わせる場
合、「午前12時35分出発の停車中の列車のみがあります」と答え、この日の
うちのより早くに利用可能な都市間列車との差異を示すことができる。
【0012】 従属請求項3に規定したような実施形態によれば、ある情報項目を、対応する
照会項目が前記ユーザの発話において比較的早くに生じた場合、重要であるとみ
なす。例えば、所望の出発時間を特定する照会項目が比較的早いと認識される場
合、正確な出発時間に対応する情報項目を重要であるとみなす。
【0013】 従属請求項5に規定したような実施形態において、前記目的を、前記ユーザの
、前記機械の質問および/または確認陳述への応答から決定する。前記目的を、
前記ユーザが照会項目を特定する方法または瞬時から得てもよい。前記目的を、
前記照会項目と無関係に認識してもよい。例えば、前記目的を、前記応答におい
て認識されたが前記照会に関して要求されていない項目から得てもよい。
【0014】 従属請求項6に規定したような実施形態において、前記ユーザの目的を、前記
照会項目を認識することと類似して認識する。前記照会項目および目的(目的項
目とも呼ばれる)の双方を、前記ユーザの発話における関連するキーワード/句
を認識することによって認識する。前記認識された照会項目を使用し、前記所望
の情報を、例えば、データベース照会を行うことによって検索する。前記認識さ
れた目的項目を使用し、最も適切なプレゼンテーションシナリオを選択する。前
記照会項目と目的項目との間に重複が存在することがわかるであろう。これを特
に、照会を種々の形態において指定することができる場合としてもよく、例えば
、有効な照会に関して、出発駅および到着駅に関する項目を認識することを要求
してもよく、ここで、時間を出発時間または到着時間のいずれかによって指定し
てもよい。前記時間項目のいずれかが満たされたことを使用し、前記ユーザの目
的を示すことができる。このようなものとして、前記照会項目は、前記情報を最
も効果的に与える方法に関係する前記ユーザの目的を表す情報を含むことができ
る。2つ以上の目的が認識された場合、最も重要なものを、例えば、前記目的項
目によって反映されるような目的を重要性に関してランク付けした固定された優
先権案に基づいて選択してもよい。
【0015】 従属請求項7に規定したような実施形態において、目的が認識されたなかった
(すなわち、目的指示子が満たされなかった)場合、省略時プレゼンテーション
シナリオを選択する。
【0016】 従属請求項8に規定したような実施形態において、ユーザが前記提示中に割り
こむことを許可する。「いつ着く?」のような割り込み発話から、前記ユーザが
到着時間に特に興味を持っていることを明らかにする。これに応じて、前記到着
時間を強調するシナリオを選択してもよい。前記目的を、割り込みの瞬時から、
ひょっとすると割り込み発話との組み合わせにおいて得てもよい。特に、割り込
み発話の開始を認識するのは困難なため、割り込みの瞬時は、前記目的を決定す
ることにおいて助けになることができる。例えば、「いいえ、そうじゃない」の
繰り返しから、ちょうど第1回目の瞬時において、乗り換えが与えられたという
事実との組み合わせにおいて、ユーザの目的が乗り換えしないことか、詳細な乗
り換え情報を受けないことであるとみなすことができる。同様に、割り込みの瞬
時が、第2または第3の乗り換えを与えた後の場合、前記ユーザは頻繁な乗り換
えを好まないとみなすことができる。前記対話の終了時において開始する原型の
提示を、省略時プレゼンテーションシナリオに基づかせてもよいことは明らかで
あろう。これは、例えば、目的またはより適切なシナリオが前記ユーザの初期応
答から決定できなかった場合に起こるかもしれない。前記ユーザが前記提示中に
割り込む場合、割り込みに関する前記ユーザの目的は決定される。多くの場合に
おいて、より適切なプレゼンテーションシナリオを、与えられたかもしれないど
のような反対も克服するように位置付けることができる。これは、利用可能な情
報のいくつかを保留することを含んでもよい(例えば、詳細な出発および到着情
報と、制限された乗り換えまたは乗り換えがないという情報のみを与える)。割
り込みの瞬時前に与えられた情報は必要ないが、新たなシナリオにしたがって繰
り返してもよい。
【0017】 従属請求項9に規定したような実施形態において、与えるべき情報項目に基づ
いて、プレゼンテーションシナリオが複雑過ぎる/長過ぎる出力文を与えるかも
しれないかどうかを判断する。そうならば、より適切なシナリオを選択するため
に前記ユーザに連絡する。例えば、前記データベース照会が2つの乗り換えを伴
う旅行を与えた場合、「Aを午前8時に出発してBに午前10時30分に着く列
車接続があります。この接続は、CおよびDにおける乗り換えを含みます。この
乗り換え数でよいですか?」のような組み合わされた応答/照会を前記ユーザに
与えてもよい。「はい、そうしてください」または「はい、完全な詳細をお願い
します」のような応答に応じて、乗り換え回数のみを与えるか、中間駅における
出発時間のみを与えるか、各経路の詳細を完全に与える(出発/到着駅および時
間)かを選択してもよい。
【0018】 従属請求項10に規定したような実施形態において、前記ユーザの目的が与え
られた情報を書き留めることであるか書き留めないことであるかを区別する。特
に、前記ユーザが前記出力を書き留めるつもりである場合、前記情報を少ない文
/句で、比較的遅いペースで、前記文/句間に十分に時間を置いて与えることが
好適である。特に、与えるべき情報が反復性のものである場合、ユーザが前記情
報を容易に表形式に書き留めることができる句/文を使用することが好適である
。例えば、旅行が乗り換えを含む場合、前記経路を、好適には、「列車は、Aを
午前8時に出発してBに8時30分に到着します。連絡列車は、Bを午前8時4
5分に出発してCに9時30分に到着します。」のような各経路に関して同様の
短い形式において表す。特定の照会に関して、前記ユーザが前記情報を書き留め
たいと間違いなくみなすことができる。例えば、前記ユーザが、比較的遠くへの
未来(例えば、2週間またはそれ以上)における旅行か、海外旅行に関して照会
する場合である。
【0019】 従属請求項11に規定したような実施形態において、旅行情報システムに関し
て、前記ユーザの目的が、特定の時間に到着することか、特定の時間に出発する
ことか、乗り換えに十分な時間があることかを識別することが好適である。
【0020】 本発明の目的を満たすために、前記システムは、前記情報項目を与える好適な
方法を反映する前記ユーザの目的を、予め決められた目的の組から、前記ユーザ
の発話に基づいて決定する手段と、前記プレゼンテーションシナリオを、予め決
められたプレゼンテーションシナリオの組から、前記決定された目的に応じて選
択する手段とを具えることを特徴とする。
【0021】 本発明のこれらおよび他の態様は、図面に示す実施形態の参照によって明らか
になるであろう。
【0022】 図1は、本発明によるシステム10のブロック図を示す。このシステムの動作
の例を、特に、列車スケジュールに関する情報を自動的に提供するシステムに関
して説明する。これらの例は制限でないことは理解されるであろう。前記システ
ムを、バスまたは飛行機を含むような他の旅行スケジュール情報に関する情報を
供給することに等しく使用してもよい。さらに、前記システムを使用し、銀行関
連情報(例えば、預金概略)、公共企業掲示板からの情報、議会または他の政府
機関からの情報、または、より一般的には、会社に関連する情報(例えば、製品
およびサービス情報)のような他の形式の情報を供給してもよい。
【0023】 この図において、項目20は、ユーザからの音声表現信号を受ける相互接続を
表す。例えば、マイクロホンを相互接続部20に接続してもよい。代表的に、こ
のようなマイクロホンを電話機に統合し、ユーザが前記システムを遠隔的に操作
できるようにする。これを、例えば、慣例的なモデムを使用して実現する。イン
タフェースがアナログ形式における音声を受ける入力部を有する場合、前記イン
タフェースは、好適には、前記アナログ音声を音声認識システム40による他の
処理に好適なフォーマットのディジタル標本に変換するA/Dコンバータを具え
る。前記インタフェースがディジタル形式における音声を例えばISDNを経て
受ける入力部を有する場合、好適には、前記コンバータは、前記ディジタルデー
タを他の処理に関して好適なディジタルフォーマットに変換することができる。
ブロック40は、音声認識サブシステムを表す。音声認識システム40は、代表
的に、前記受けた音声を、訓練された材料(聴覚データおよび辞書/文法)と比
較することによって解析する。音声認識システム40を、好適には発話者に依存
しないようにする。音声認識システム40は、認識された単語のストリームを出
力してもよい。好適には、音声認識システム40は、前記ユーザによって話され
たかもしれないいくつかのありそうな単語の列を含む単語グラフを出力する。連
続音声認識器を使用することが好適である。それ自身において、音声認識は既知
であり、すべて本願の譲受人に対する米国特許出願第08/425304号に対
応する欧州特許出願公開明細書第92202782.6号、米国特許出願第08
/751377号に対応する欧州特許出願公開明細書第92202783.4号
、米国特許明細書第5634083号に対応する欧州特許出願公開明細書第94
200475.5号のような種々の文献において開示されている。
【0024】 音声認識サブシステム40の出力信号を対話管理サブシステム50に供給する
。対話マネージャ50は、システム10の中心を形成し、用途特定情報を含む。
対話マネージャ50を、前記ユーザがどの情報に興味をもっているかを決定する
ようにプログラムする。この目的のため、対話マネージャ50は、前記ユーザが
得ることを望む情報を示すキーワードまたはフレーズを抽出するために、前記音
声認識器の出力信号を走査する。捜すべきキーワードまたはフレーズを、ハード
ディスクのような記憶装置54に記憶してもよい。照会項目と呼ばれる抽出され
た情報要素を、代表的に、メインメモリ(図示せず)に格納する。ある照会のす
べての項目が認識されたら、前記情報が記憶装置52から得られ、これは通常デ
ータベースに基づく。対話マネージャ50は、例えば情報項目の1つの組のみが
得られる状況において、1つの照会形式のみをサポートしてもよい。多くの場合
において、代わりの照会形式を指定できてもよい。例えば、列車旅行を出発駅と
、到着駅と、これらのいずれかに加えて出発時間または到着時間とによって指定
することができる。いくつかのシステムは、ユーザが、特定の列車旅行における
情報か、遅れまたは鉄道保守における情報のような異なった情報の組を得られる
ようにしてもよい。これらの状況において、対話マネージャ50は、好適には、
2つ以上の照会形式に関する情報を識別することができる。特定の形式のある照
会のすべての要素項目を認識したらすぐに、前記対話を終了し、前記照会を行う
ことができる。通常、対話を、予め決められた歓迎文の発生をトリガする対話マ
ネージャ50によって開始する。すべての照会項目を初期ユーザ応答から抽出で
きる場合、前記対話をこの最初のユーザ応答の後完了してもよい。照会項目のす
べては前記最初のユーザ応答において認識されない場合、1つ以上のサブ対話を
開始し、欠けている項目を決定してもよい。サブ対話は、通常、質問文で開始す
る。この質問文を確認文と組み合わせ、既に認識された項目を確認してもよい。
ユーザが既に認識された項目を拒否した場合、この拒否された項目を、例えば拒
否発言から、以前の発言から得られたあまりありそうにない選択肢から、または
、新たなサブ対話を開始することによって再決定してもよい。特に、前記対話の
終了時に、認識されたすべての前記照会項目を、確認文を発生することによって
確認してもよい。要求/確認文を、代表的に、予め決められた文/句から形成し
、これらの文/句を背景の記憶装置56に記憶してもよい。テンプレート文/句
を、前記ユーザの発話において認識されたと思われている情報において満たす対
話マネージャ50によって完成させてもよい。例えば、前記対話マネージャは、
X駅が以前の発話において認識された場合、「X駅を何時出発したいですか」の
ような質問/確認文を形成することができる。現在日時のようななにか他の可変
情報を満たしてもよい。それ自身において、対話マネージャは、例えば、すべて
本願の譲受人に対する米国特許明細書第5745877号に対応する欧州特許出
願公開明細書第96900010.8号、IB 97/00284、IB 98
/00006、IB 97/00173から既知である。
【0025】 システム10は、さらに、音声発生サブシステム60を具える。音声発生サブ
システム60は、前記質問/確認文を対話マネージャ50から(もしかすると韻
律的に補足された)逐語的形式または音声断片のような種々の形式において受け
てもよい。音声発生サブシステム60は、文書を音声に変換することができる音
声合成技術に基づいてもよい。音声発生サブシステム60は、それ自身、もしか
すると、より自然に聞こえる音声を発生するために、前記音声断片または文書を
韻律的に補足する。音声発生サブシステム60は、それ自身、前記補足された材
料を、次に音声出力信号に変換する。音声発生は、すべて本願の譲受人に対する
IB 96/00770、IB 96/01448、米国特許明細書第5479
564号のような種々の文献において開示されている。インタフェース70を経
て、前記音声出力信号を音声出力相互接続部80においてユーザに供給する。代
表的に、前記音声出力信号を再生するためにスピーカを相互接続部80に接続す
る。好適には、前記スピーカは、前記音声入力に使用する前記電話機の一部を形
成する。音声出力インタフェース70を、通常、音声入力インタフェース30に
、例えばモデムの形態における既知の方法において結合する。
【0026】 本発明によれば、システム10は、プレゼンテーションマネージャ90を具え
る。対話マネージャ50は、記憶装置52から検索された情報をプレゼンテーシ
ョンマネージャ90にインタフェース92を経て供給する。プレゼンテーション
マネージャ90は、テンプレート文/句のようなプレゼンテーションシナリオを
選択する。プレゼンテーションマネージャ90が選択することができるシナリオ
を、代表的に、ハードディスクのような記憶装置96に記憶する。前記シナリオ
を、例えば、実際の出発/到着時間のような対話マネージャ50によって供給さ
れた情報を使用することによって満たす。完成された文/句を、音声として前記
ユーザに与えるために音声発生システム60に供給する。好適には、この発生技
術を、前記質問/確認文を与えるのに使用した技術と同じものとする。特に多く
の情報項目を与える必要がある場合、1つのプレゼンテーションシナリオが多数
の文/句を含んでもよいことは明らかであろう。プレゼンテーションシナリオの
選択は、利用できる列車がない、見つかった直接接続、または、乗り換えを含む
見つかった旅行等のような、前記記憶装置から得られた実際の情報によって影響
されるかもしれない。本発明によれば、適切なプレゼンテーションシナリオの選
択は、前記情報を最も効果的に与える方法に影響する前記ユーザの目的に全体的
または付加的に基づく。前記目的を、前記ユーザの発話に基づく対話中に決定す
る。対話マネージャ50は、予め決められた目的の組から前記ユーザの目的を決
定する。前記目的を、多くの方法において決定または推論することができる。例
えば、目的を、どの照会項目、例えば、適切な到着時間または出発時間が与えら
れたかによって反映させてもよい。このような目的情報を、対話マネージャ50
からプレゼンテーションマネージャ90へ、どの形式の照会が使用されたか、ま
たは、どの個別的な照会項目が満たされたかの形式において渡す。個々の前記項
目が認識された順番のような前記照会項目についての時間的情報も、前記ユーザ
の目的を反映することができる。この目的のため、前記照会項目が認識された順
番を示す情報を、インタフェース94を経て渡してもよい。プレゼンテーション
マネージャ90は、前記与えられた情報から前記ユーザの第1目的を決定する。
例えば、対話マネージャ50がプレゼンテーションマネージャ90にどの対話形
式が使用されたかを知らせる状況において、対話マネージャ50は、可能な照会
形式の各々に関する目的および関連するプレゼンテーションシナリオを単純に選
択することができる。この選択は、単純に、前記可能な照会形式を前記プレゼン
テーションシナリオの組に割り当てる表に基づいてもよい。同様な技術を、前記
紹介項目の順番情報を与える状況において使用してもよい。この場合において、
前記順番情報を、いくつかの周期的に生じる順番と比較し、最も適当なものを決
定してもよく、各々の列がプレゼンテーションシナリオに関係する。
【0027】 本発明によれば、前記ユーザの要求において記憶装置56から検索された情報
項目の少なくとも1つの所定の組に関して、前記システムは、代わりのプレゼン
テーションシナリオ間での選択を有する。前記選択を、例えば、各々が同じ情報
項目を表すが、前記項目を表す異なった列を有する2つ以上のシナリオ間として
もよい。例を、 「午後7時15分に出発する列車があります。7時55分にYに到着します。」
または、 「Yに午後7時55分に到着する列車があります。7時15分に出発します。」
とする。前記選択は、1つの文/句における情報を与えるか、もしかすると情報
の反復を伴い、より小さい文/句の列を使用するにおけるものでもよい。例を、
「Xを午後7時15分に出発し、Yに7時55分に到着し、Yを8時15分に出
発し、Zに8時45分に到着する」か、 「午後7時15分の列車があります。Yに7時55分に到着します。接続列車は
8時15分に出発し、Zに8時45分に到着します。」か、 「午後7時15分の列車があります。Yに7時55分に到着します。接続列車は
8時15分に出発します。この接続列車はZに8時45分に到着します。」とす
る。前記シナリオ間の選択は、もしかすると前記記憶装置から得られた情報を除
く、与えられる詳細の量におけるものでもよい。例えば、 「Xを午後7時15分に出発し、Yに7時55分に到着する列車があります。接
続列車は8時15分に出発し、Zに8時45分に到着します。」か、 「Xを午後7時15分に出発し、Yに7時55分に到着する列車があります。接
続列車はZに8時45分に到着します。」。
【0028】 好適実施形態において、前記ユーザの目的を決定することは、前記情報項目の
どれが前記ユーザにとって重要であるかを決定することを具える。前記目的を前
記照会情報から得るシステムにおいて、これを、ある情報項目を、対応する照会
項目が他の照会項目と比べて前記ユーザの発話において早く生じた場合、重要で
あると指定することによって達成してもよい。これを、照会項目が認識された列
を、1つ以上の省略時列と比較することによって実行してもよい。ある照会項目
がこれらの省略時列におけるより早く認識された場合、この項目に関する情報を
重要であるとみなす。どの項目が重要であるかを、前記照会項目によって反映さ
れない前記ユーザの明示的/暗示的発話から得ることもできることは明らかであ
ろう。好適には、プレゼンテーションマネージャ90は、予め決められたプレゼ
ンテーションシナリオの組からシナリオを選択する。前記シナリオを、前記重要
な情報項目が他の得られた情報項目に対して早くに与えることと、比較的重要で
ない情報項目を後に与えるか、まったく与えないこととにおいて選択する。いく
つかのシナリオにおいて、きわめて重要な情報項目を2回与えてもよい。
【0029】 好適実施形態において、対話マネージャ50は、好適には、前記ユーザの発話
から特定の目的を抽出する。この目的のために、対話マネージャ50は、前記情
報を最も効果的に与える方法に影響する前記ユーザの目的を反映するキーワード
またはフレーズを抽出するために、音声認識器40の出力を走査する。旅行情報
システムにおいて、「速い」、「詳細」、「概略」のようなキーワードと、「X
時間後にAからBに行く列車がある」等のような句は、プレゼンテーションシナ
リオにおいて反映されることができる前記ユーザの目的を示すことができる。例
えば、「速い」および「概略」を、要約に関連付け、要点プレゼンテーションシ
ナリオに関連付けてもよく、「詳細」を、すべての利用可能な情報が十分に詳し
く与えられるシナリオに関連付けてもよく、「X時間後にAからBに行く列車が
ある」は、出発時間のみに言及するシナリオをトリガしてもよい。好適には、対
話マネージャ50は、同じ技術を使用し、音声マネージャ40によって供給され
た認識されたストリームにおいて前記照会項目およびユーザ目的の双方を検出す
る。この目的のため、目的指示子に関連するキーワードまたはフレーズを、ハー
ドディスクのような記憶装置58に記憶してもよい。前記対話が完了したら、前
記目的指示子をプレゼンテーションマネージャ90にインタフェース94を経て
供給する。1つのみの目的指示子に関して目的を認識した場合、プレゼンテーシ
ョンマネージャ90は、この指示子に関係するプレゼンテーションシナリオの1
つを選択する。上述したように、前記照会項目を使用し、前記ユーザの目的を決
定してもよいことは明らかであろう。そこで、2つ以上の目的が認識された場合
、または、前記照会項目が目的情報も与える場合、プレゼンテーションマネージ
ャ90は、好適には、最も重要なもの(すなわち、最も高い優先度を有する)と
考えられる項目に最も適したシナリオを選択する。代案として、プレゼンテーシ
ョンマネージャ90は、前記認識されたもくてきのうちいくつかまたはすべてに
最も適したシナリオを選択してもよい。これを、例えば、各々の可能な目的に関
して、前記シナリオの各々がどのくらい良好に前記目的に適合するかを示すこと
によって達成する。この指示に関して、0から1までの尺度を使用してもよく、
ここで、0は、前記シナリオが前記認識された目的にまったく適合しないことを
示し、1は、前記シナリオが高度に適合することを示す。前記認識された目的に
基づいてすべてのシナリオに関する得点を計算することによって、好適には、最
も高い計算された得点を有するシナリオを、おそらく前記ユーザの目的を最適に
表すものとして選択する。
【0030】 照会が認識された瞬時において、指定された情報へのアクセスを有する前記ユ
ーザの特定目的が常には認識されていないことは明らかであろう。この場合にお
いて、プレゼンテーションマネージャ60は、好適には、省略時プレゼンテーシ
ョンシナリオを選択し、このシナリオにしたがって情報を与える。前記シナリオ
を、与えるべき情報に基づいてのみ選択してもよい(例えば、乗り換えありまた
はなし)。好適実施形態において、前記システムは、前記検索された情報の提示
中に前記ユーザの割り込みを検知することができる。入力エネルギーレベルの測
定に基づくような、どのような適切な割り込み検出方法を使用してもよく、望む
なら、前記情報を与えることから生じる前記エネルギー出力に関係して測定し、
(入力部を経てもどって受けられる)前記出力エネルギーにおける変化をユーザ
割り込みとして間違えることを回避する。割り込みを検知した場合、これは、情
報を前記システムに与え、これからユーザの目的を得てもよい。前記目的を、前
記ユーザの割り込み発話を認識することから得てもよい。例えば、ユーザが「い
いえ、それほど速くではなく」または「あまり詳細にではなく頼む」と言う場合
、これは、前記ユーザが、前記情報を、より短い断片において表すか、あまり詳
細にではなく表し、前記ユーザが前記情報を書き留められるようにするプレゼン
テーションシナリオを好むことを示すかもしれない。これらのような目的を、前
記照会対話からユーザ目的を認識することに関して上述したのと同じように認識
することができる。前記割り込み発話が完了したら、前記認識された目的を好適
には使用し、プレゼンテーションシナリオを再選択する。実際の状況に応じて、
以前に既に与えられた何らかの情報を繰り返す必要はないかもしれない。代わり
に、まだ与えられるはずであった情報を表すだけで十分であるかもしれない。好
適には、前記目的は、前記ユーザが割りこむ瞬時にも基づく。好適には、前記発
話との組み合わせにおいて、これは、前記ユーザの目的の正確な認識を可能にす
ることができる。例えば、ユーザが、システムが「...Xに20時に到着し、
Xを20時15分に出発し...」と与えたすぐ後に「違うそうじゃない」と言
った場合、これは、ユーザが詳細な乗り換え情報を得ることを望んでいないこと
を示すかもしれない。プレゼンテーションマネージャ90は、前記割り込み目的
に基づき、特定の情報項目を、例えば、乗り換えを含むどのような旅行も除外す
ることによって除外してもよい。好適には、前記システムは、前記割り込み情報
もチェックし、新たな照会項目が与えられたかどうかと、したがって、新たな情
報項目を記憶装置52から得ることを望むかどうかとを決定する。
【0031】 本発明による一実施形態において、プレゼンテーションマネージャ90は、選
択されたプレゼンテーションシナリオを、前記情報を表すのに使用すべきである
場合、前記情報項目のプレゼンテーションの複雑さの程度を決定する。情報がま
だ認識されていない場合、前記選択されたシナリオを省略時プレゼンテーション
シナリオとしてもよいことは明らかであろう。前記複雑さを、前記シナリオに関
する複雑さ程度を記憶装置から検索することによって決定してもよい。前記記憶
装置は、ありうるシナリオの組の各シナリオに関する個々の複雑さ程度を具える
。前記複雑さ程度を、例えば、1つ以上の乗り換えを含む行程の各々の直接経路
に関して繰り返すためにサブシナリオが必要な場合、アルゴリズム的に調節して
もよい。このような状況において、複雑さ程度を、1つの経路に関して、または
、直接行程、複合行程の開始経路、複合行程の中間経路、および、複合行程の終
端経路のような異なった形式の経路に関して記憶してもよい。いくつかの経路を
含む行程の複雑さを、各々の含まれる経路の複雑さ程度を乗算することによって
得てもよい。前記システムは、前記複雑さ程度を予め決められたしきい値と比較
する。この比較に基づいて、発生すべき前記文/句を複雑過ぎると判断した場合
、プレゼンテーションマネージャ90は、より適切なプレゼンテーションシナリ
オを決定するために質問文を前記ユーザに出力することをトリガする。このよう
な質問文は、「この行程はX回の乗り換えを含みます。すべての乗り換えの詳細
を得たいですか?」のような句を含んでもよい。前記ユーザの目的(詳細ありま
たはなし)を、前記質問文に対する答えから決定する。これを、好適には、上述
したように、前記認識された応答から前記目的指示子を決定することによって行
う。
【0032】 好適には、割り込みを許可する、または、前記対話が完了した後にさらなる質
問を聞くことができるシステムに関して、対話マネージャ50は、音声認識シス
テム40によって認識されたような前記ユーザの発話からの情報抽出を処理する
のが好適である。対話マネージャ50は、新たな対話を開始し、前記ユーザから
情報を得てもよい。
【0033】 通常、本発明によるシステム10を、ワークステーションまたはPCサーバの
ようなコンピュータにおいて実行する。音声認識システム40と、対話管理シス
テム50と、音声発声システム60と、プレゼンテーション管理システム90の
タスクを、前記システムのマイクロプロセッサにおいて、適切なプログラムの制
御の下で実行する。
【0034】 図2は、ユーザからの紹介に自動的に応じる本発明による方法の流れ図を示す
。ステップ210において、機械制御された人間−機械対話を実行し、複数の予
め決められた紹介項目を決定する。前記紹介項目は、検索し、前記ユーザに言葉
で与えるべき情報を指定する。この図は、いくつかのステップに細分した対話を
示す。最初に、歓迎文をステップ212において与える。この歓迎文は、好適に
は、前記ユーザに対する質問要求も含み、このユーザがどの情報を検索すること
を望んでいるかを特定する。ステップ213において、慣例的な音声認識技術を
使用して前記ユーザの応答を認識する。ステップ214において、この認識され
た発話を走査し、前記ユーザが興味を持つ情報を特定するような情報を抽出し、
本発明によれば、前記情報を最も効果的に与える方法に影響する前記ユーザの目
的も決定する。ステップ215において、照会を行って情報を得るために十分な
照会項目が認識されたかどうかをチェックする。十分でない場合、質問文をステ
ップ216において発する。この質問を、確認文と組み合わせ、これまでに認識
されたなんらかの情報を確認する。前記ユーザの応答を、ステップ213に関し
て説明したように認識し、処理する。この結果、十分な情報が認識されるまでの
サブ対話のループが生じる。任意に、確認文をステップ217において発しても
よい。前記対話の完了後、ステップ220において、前記情報を記憶装置から検
索する。情報項目を、前記認識された照会項目によって指定されるように検索す
る。ステップ230において、前記情報を最も効果的に与える方法に影響する記
ユーザの目的を、これらのような目的の予め決められた組から選択する。この選
択は、前記対話中に認識された前記ユーザの発話から得られた情報に基づく。前
記目的に適合するプレゼンテーションシナリオを検索する。目的をまだ確認でき
ない場合、省略時シナリオを選択する。前記シナリオの選択は、与えるべき前記
情報に基づいてもよい。このような目的は個々に決定されないかもしれず、実際
には前記照会指示子に関して認識された情報を使用してプレゼンテーションシナ
リオを直接選択し、前記シナリオは、前記ユーザの特定の目的(の組み合わせ)
を反映するように予め設計されていることは明らかであろう。ステップ240に
おいて、前記得られた情報項目を表す少なくとも1つの句を、前記選択されたプ
レゼンテーションシナリオにしたがって発生する。ステップ250において、前
記発生された句を発音する。任意に、このプレゼンテーション中の前記ユーザの
割り込みをサポートしてもよい。この目的のため、前記音声の提供と並行して、
ステップ260において、前記ユーザがこのプレゼンテーション中に割り込んだ
かどうかを検知する。割り込んでいない場合、前記プレゼンテーションを通常に
終了する。割り込んでいる場合、ステップ270において、前記割り込み発話お
よび/または割り込みの瞬時から情報を抽出する。ステップ210の対話中に使
用したのと同じ技術をこのために使用してもよい。前記割り込みの終了時に、前
記プレゼンテーション句は、ステップ230において継続/再開してもよく、前
記割り込み情報を考慮に入れることによってプレゼンテーションシナリオを選択
する。任意に、ステップ210の対話句を再入力してもよい。
【図面の簡単な説明】
【図1】 本発明によるシステムのブロック図を示す。
【図2】 本発明による方法の流れ図を示す。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 17/60 144 G06F 17/60 144 G10L 15/00 G10L 3/00 551A 15/22 571T (71)出願人 Groenewoudseweg 1, 5621 BA Eindhoven, Th e Netherlands

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 ユーザからの照会に自動的に応じる方法において、 機械制御された人間−機械対話を実行し、前記ユーザに言葉で与えるべき情報
    を指定する複数の予め決められた照会項目を決定するステップと、 前記照会項目に応じて記憶装置から複数の情報項目を検索するステップと、 少なくとも1つの自然言語句を発生し、前記得られた情報項目をプレゼンテー
    ションシナリオに従って与えるステップと、 前記発生された句を前記ユーザに言葉で与えるステップとを具える方法におい
    て、 ユーザの発話に基づいて、予め決められた目的の組から、前記情報項目を与え
    る適切な方法を反映する前記ユーザの目的を決定するステップと、 前記決定された目的に応じてプレゼンテーションシナリオの予め決められた組
    から前記プレゼンテーションシナリオを選択するステップとを具えることを特徴
    とする方法。
  2. 【請求項2】 請求項1に記載の方法において、前記目的を決定するステップが
    、前記情報項目のどれが前記ユーザにとって重要であるかを決定するステップを
    具えることを特徴とする方法。
  3. 【請求項3】 請求項2に記載の方法において、ある情報項目を、対応する照会
    項目が前記ユーザの発話において他の照会項目より早くに生じた場合、重要であ
    ると指定するステップを具えることを特徴とする方法。
  4. 【請求項4】 請求項2に記載の方法において、前記プレゼンテーションシナリ
    オを選択するステップが、予め決められたプレゼンテーションシナリオの組から
    、前記重要な情報項目が前記句において他の得られた情報項目に対してより早く
    に存在するシナリオを選択するステップを具えることを特徴とする方法。
  5. 【請求項5】 請求項1に記載の方法において、前記対話の実行が、 質問および/または確認文を文レパートリから前記ユーザに出力するステップ
    と、 前記ユーザから少なくとも1つの応答を得るステップとを具え、 複数の予め決められた照会指示子に関して、個々の照会項目が前記応答におい
    て認識されるまで、 前記目的を決定するステップが、ある質問および/または確認文への前記ユー
    ザの応答から決定するステップを具えることを特徴とする方法。
  6. 【請求項6】 請求項5に記載の方法において、前記予め決められた目的の組の
    各々の目的が個々の目的指示子に関係し、前記目的指示子の少なくとも1つが前
    記照会指示子の1つに対応せず、該方法が、前記対話中、前記応答における少な
    くとも1つの前記目的指示子に関する目的を認識しようとするステップを具える
    ことを特徴とする方法。
  7. 【請求項7】 請求項6に記載の方法において、前記対話中に目的指示子が認識
    されなかった場合、省略時プレゼンテーションシナリオを選択するステップを具
    えることを特徴とする方法。
  8. 【請求項8】 請求項1に記載の方法において、 前記発生された句の提示中において前記ユーザが割り込むことを検知するステ
    ップと、 前記ユーザの目的を、割り込みの瞬時および/または割り込み発話から決定す
    るステップと、 プレゼンテーションシナリオを、割り込みに関する前記ユーザの目的に基づい
    て再選択するステップと、 少なくともまた与えられていない情報項目を表す少なくとも1つの句を、前記
    選択されたプレゼンテーションシナリオにしたがって発生するステップと、 前記発生された句を前記ユーザに言葉で与えるステップとを具えることを特徴
    とする方法。
  9. 【請求項9】 請求項1に記載の方法において、 省略時または選択されたプレゼンテーションシナリオにしたがって得られた情
    報を表す句の複雑さを、予め決められたしきい値と比較するステップと、 複雑過ぎると判定した場合、より適切なプレゼンテーションシナリオを決定す
    るために質問文を前記ユーザに出力するステップと、 前記ユーザの目的を、前記質問文に対する答えから決定するステップとを具え
    ることを特徴とする方法。
  10. 【請求項10】 請求項1に記載の方法において、前記目的の組が、前記ユーザ
    が前記句を書き留めるという目的と、前記ユーザが前記句を書き留めないという
    目的とを含むことを特徴とする方法。
  11. 【請求項11】 請求項1に記載の方法において、前記情報項目が旅行情報に関
    係し、前記目的の組が、 予め決められた時間に到着したいという目的、 予め決められた時間に出発したいという目的、 予め決められた最小乗り換え回数を有したいという目的のうち少なくとも1つ
    を含むことを特徴とする方法。
  12. 【請求項12】 ユーザからの照会に自動的に応じるシステムにおいて、 機械制御された人間−機械対話を実行し、前記ユーザに言葉で与えるべき情報
    を指定する複数の予め決められた照会項目を決定する手段と、 前記照会項目に応じて記憶装置から複数の情報項目を検索する手段と、 少なくとも1つの自然言語句を発生し、前記得られた情報項目をプレゼンテー
    ションシナリオに従って与える手段と、 前記発生された句を前記ユーザに言葉で与える手段とを具えるシステムにおい
    て、 前記情報項目を与える好適な方法を反映する前記ユーザの目的を、予め決めら
    れた目的の組から、前記ユーザの発話に基づいて決定する手段と、 前記プレゼンテーションシナリオを、予め決められたプレゼンテーションシナ
    リオの組から、前記決定された目的に応じて選択する手段とを具えることを特徴
    とするシステム。
JP2000576387A 1998-10-09 1999-09-22 自動照会方法およびシステム Pending JP2002527829A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP98203423.3 1998-10-09
EP98203423 1998-10-09
PCT/EP1999/007032 WO2000022549A1 (en) 1998-10-09 1999-09-22 Automatic inquiry method and system

Publications (1)

Publication Number Publication Date
JP2002527829A true JP2002527829A (ja) 2002-08-27

Family

ID=8234208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000576387A Pending JP2002527829A (ja) 1998-10-09 1999-09-22 自動照会方法およびシステム

Country Status (4)

Country Link
US (1) US6647363B2 (ja)
EP (1) EP1044416A1 (ja)
JP (1) JP2002527829A (ja)
WO (1) WO2000022549A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11509609B2 (en) 2019-11-18 2022-11-22 Wingarc1St Inc. Chat system, chat control apparatus and chat program

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7590224B1 (en) * 1995-09-15 2009-09-15 At&T Intellectual Property, Ii, L.P. Automated task classification system
US7050977B1 (en) 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
US9076448B2 (en) * 1999-11-12 2015-07-07 Nuance Communications, Inc. Distributed real time speech recognition system
US7725307B2 (en) 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
US7228327B2 (en) * 2000-05-08 2007-06-05 Hoshiko Llc Method and apparatus for delivering content via information retrieval devices
US6728679B1 (en) * 2000-10-30 2004-04-27 Koninklijke Philips Electronics N.V. Self-updating user interface/entertainment device that simulates personal interaction
JP2002197181A (ja) * 2000-12-27 2002-07-12 Sharp Corp サービス管理方法およびサービス管理方法を実行するプログラムを記録したコンピュータ読み取り可能な情報記録媒体
US7249018B2 (en) * 2001-01-12 2007-07-24 International Business Machines Corporation System and method for relating syntax and semantics for a conversational speech application
US7127402B2 (en) * 2001-01-12 2006-10-24 International Business Machines Corporation Method and apparatus for converting utterance representations into actions in a conversational system
US6950793B2 (en) 2001-01-12 2005-09-27 International Business Machines Corporation System and method for deriving natural language representation of formal belief structures
US7257537B2 (en) * 2001-01-12 2007-08-14 International Business Machines Corporation Method and apparatus for performing dialog management in a computer conversational interface
US7085723B2 (en) * 2001-01-12 2006-08-01 International Business Machines Corporation System and method for determining utterance context in a multi-context speech application
US7574362B2 (en) 2001-03-14 2009-08-11 At&T Intellectual Property Ii, L.P. Method for automated sentence planning in a task classification system
US7516076B2 (en) 2001-03-14 2009-04-07 At&T Intellectual Property Ii, L.P. Automated sentence planning in a task classification system
US7729918B2 (en) 2001-03-14 2010-06-01 At&T Intellectual Property Ii, Lp Trainable sentence planning system
EP1291849B1 (en) * 2001-09-07 2006-07-12 Sony Deutschland GmbH Memory management for a spoken dialogue system
US7069221B2 (en) * 2001-10-26 2006-06-27 Speechworks International, Inc. Non-target barge-in detection
US8190436B2 (en) 2001-12-07 2012-05-29 At&T Intellectual Property Ii, L.P. System and method of spoken language understanding in human computer dialogs
KR100446627B1 (ko) * 2002-03-29 2004-09-04 삼성전자주식회사 음성대화 인터페이스를 이용한 정보제공장치 및 그 방법
JP4132962B2 (ja) * 2002-05-16 2008-08-13 パイオニア株式会社 対話型情報提供装置、対話型情報提供プログラム、及びそれを記憶した記憶媒体
US7693720B2 (en) 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
ATE350715T1 (de) 2003-05-15 2007-01-15 Targit As Methode und benutzerschnittstelle für das bilden einer darstellung von daten mit meta-morphing
US7779018B2 (en) * 2003-05-15 2010-08-17 Targit A/S Presentation of data using meta-morphing
WO2005009205A2 (en) * 2003-07-09 2005-02-03 Gensym Corporation System and method for self management of health using natural language interface
US8468444B2 (en) * 2004-03-17 2013-06-18 Targit A/S Hyper related OLAP
US8380484B2 (en) * 2004-08-10 2013-02-19 International Business Machines Corporation Method and system of dynamically changing a sentence structure of a message
US7774295B2 (en) * 2004-11-17 2010-08-10 Targit A/S Database track history
US7640160B2 (en) 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
EP2021953A2 (en) * 2006-05-16 2009-02-11 Targit A/S A method of preparing an intelligent dashboard for data monitoring
DK176532B1 (da) 2006-07-17 2008-07-14 Targit As Fremgangsmåde til integration af dokumenter med OLAP ved brug af sögning, computerlæsbart medium og computer
US8346555B2 (en) 2006-08-22 2013-01-01 Nuance Communications, Inc. Automatic grammar tuning using statistical language model generation
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
WO2008114811A1 (ja) * 2007-03-19 2008-09-25 Nec Corporation 情報検索システム、情報検索方法及び情報検索用プログラム
DK176516B1 (da) * 2007-04-30 2008-06-30 Targit As Computerimplementeret fremgangsmåde samt computersystem og et computerlæsbart medium til at lave videoer, podcasts eller slidepræsentationer fra en Business-Intelligence-application
US8140335B2 (en) 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US8165884B2 (en) * 2008-02-15 2012-04-24 Microsoft Corporation Layered prompting: self-calibrating instructional prompting for verbal interfaces
EP2107553B1 (en) * 2008-03-31 2011-05-18 Harman Becker Automotive Systems GmbH Method for determining barge-in
US8185646B2 (en) * 2008-11-03 2012-05-22 Veritrix, Inc. User authentication for social networks
US8536976B2 (en) * 2008-06-11 2013-09-17 Veritrix, Inc. Single-channel multi-factor authentication
US9305548B2 (en) * 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8166297B2 (en) 2008-07-02 2012-04-24 Veritrix, Inc. Systems and methods for controlling access to encrypted data stored on a mobile device
EP2148325B1 (en) * 2008-07-22 2014-10-01 Nuance Communications, Inc. Method for determining the presence of a wanted signal component
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
US9171541B2 (en) 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment
KR101622111B1 (ko) * 2009-12-11 2016-05-18 삼성전자 주식회사 대화 시스템 및 그의 대화 방법
US8612233B2 (en) 2011-01-05 2013-12-17 International Business Machines Corporation Expert conversation builder
EP2850611B1 (en) 2012-06-10 2019-08-21 Nuance Communications, Inc. Noise dependent signal processing for in-car communication systems with multiple acoustic zones
WO2014039028A1 (en) 2012-09-04 2014-03-13 Nuance Communications, Inc. Formant dependent speech signal enhancement
WO2014070139A2 (en) 2012-10-30 2014-05-08 Nuance Communications, Inc. Speech enhancement
WO2016044321A1 (en) 2014-09-16 2016-03-24 Min Tang Integration of domain information into state transitions of a finite state transducer for natural language processing
CN107003996A (zh) 2014-09-16 2017-08-01 声钰科技 语音商务
JP2016062264A (ja) * 2014-09-17 2016-04-25 株式会社東芝 対話支援装置、方法およびプログラム
WO2016061309A1 (en) 2014-10-15 2016-04-21 Voicebox Technologies Corporation System and method for providing follow-up responses to prior natural language inputs of a user
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US10614799B2 (en) 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
US10255921B2 (en) * 2015-07-31 2019-04-09 Google Llc Managing dialog data providers
US10276160B2 (en) 2015-11-12 2019-04-30 Semantic Machines, Inc. Automated assistant for user interaction via speech
US20170366479A1 (en) * 2016-06-20 2017-12-21 Microsoft Technology Licensing, Llc Communication System
US10341267B2 (en) 2016-06-20 2019-07-02 Microsoft Technology Licensing, Llc Anonymized identifiers for secure communication systems
US10331784B2 (en) 2016-07-29 2019-06-25 Voicebox Technologies Corporation System and method of disambiguating natural language processing requests
CN106934067A (zh) * 2017-04-01 2017-07-07 联想(北京)有限公司 信息处理方法及电子设备
JP2019046267A (ja) * 2017-09-04 2019-03-22 トヨタ自動車株式会社 情報提供方法、情報提供システム、および情報提供装置
US20200411006A1 (en) * 2019-06-28 2020-12-31 NJ TRANSIT Corporation Transit voice assistant
CN114999644B (zh) * 2022-06-01 2023-06-20 江苏锦业建设工程有限公司 一种建筑人员疫情防控可视化管理系统及管理方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0527527B1 (en) 1991-08-09 1999-01-20 Koninklijke Philips Electronics N.V. Method and apparatus for manipulating pitch and duration of a physical audio signal
EP0543329B1 (en) * 1991-11-18 2002-02-06 Kabushiki Kaisha Toshiba Speech dialogue system for facilitating human-computer interaction
DE4306508A1 (de) 1993-03-03 1994-09-08 Philips Patentverwaltung Verfahren und Anordnung zum Ermitteln von Wörtern in einem Sprachsignal
US5485507A (en) * 1993-08-20 1996-01-16 Gateway Technologies, Inc. Integrated commissary system
US5694558A (en) * 1994-04-22 1997-12-02 U S West Technologies, Inc. Method and system for interactive object-oriented dialogue management
KR970701879A (ko) 1995-01-18 1997-04-12 요트.게.아. 롤페즈 운영자의 중재에 의한 인간-기계 대화를 지원하는 방법 및 장치(A method and apparatus for providing a human-machine dialog supportable by operator intervention)
US6192110B1 (en) * 1995-09-15 2001-02-20 At&T Corp. Method and apparatus for generating sematically consistent inputs to a dialog manager
DE19615693C1 (de) * 1996-04-19 1997-12-11 Siemens Ag Vorrichtung und Verfahren zur Aktionsermittlung
US6021403A (en) * 1996-07-19 2000-02-01 Microsoft Corporation Intelligent user assistance facility
US5983200A (en) * 1996-10-09 1999-11-09 Slotznick; Benjamin Intelligent agent for executing delegated tasks
JP2000507021A (ja) * 1997-01-09 2000-06-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ モジュール式会話構造に基づくような両面音声の形態における人間―機械会話を実行する方法および装置
WO1998030963A1 (en) * 1997-01-14 1998-07-16 Benjamin Slotznick System for calculating occasion dates and converting between different calendar systems, and intelligent agent for using same
US5999904A (en) * 1997-07-02 1999-12-07 Lucent Technologies Inc. Tracking initiative in collaborative dialogue interactions
US6044347A (en) * 1997-08-05 2000-03-28 Lucent Technologies Inc. Methods and apparatus object-oriented rule-based dialogue management
US6144938A (en) * 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
CA2346145A1 (en) * 1998-10-05 2000-04-13 Lernout & Hauspie Speech Products N.V. Speech controlled computer user interface
US6246981B1 (en) * 1998-11-25 2001-06-12 International Business Machines Corporation Natural language task-oriented dialog manager and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11509609B2 (en) 2019-11-18 2022-11-22 Wingarc1St Inc. Chat system, chat control apparatus and chat program

Also Published As

Publication number Publication date
EP1044416A1 (en) 2000-10-18
US20030125926A1 (en) 2003-07-03
WO2000022549A1 (en) 2000-04-20
US6647363B2 (en) 2003-11-11

Similar Documents

Publication Publication Date Title
JP2002527829A (ja) 自動照会方法およびシステム
US11676575B2 (en) On-device learning in a hybrid speech processing system
US20230317074A1 (en) Contextual voice user interface
US6839667B2 (en) Method of speech recognition by presenting N-best word candidates
US20240153501A1 (en) Voice to voice natural language understanding processing
US7668710B2 (en) Determining voice recognition accuracy in a voice recognition system
US6438520B1 (en) Apparatus, method and system for cross-speaker speech recognition for telecommunication applications
US8050923B2 (en) Automated utterance search
US20060122837A1 (en) Voice interface system and speech recognition method
EP1561204B1 (en) Method and system for speech recognition
JP2001005488A (ja) 音声対話システム
JPH10207685A (ja) ハイパーリンク化された情報との音声化されたインターフェースのためのシステムおよび方法
US20050131684A1 (en) Computer generated prompting
JP2021529337A (ja) 音声認識技術を利用した多者間対話記録/出力方法及びこのため装置
JP7107229B2 (ja) 情報処理装置および情報処理方法、並びにプログラム
US20240071385A1 (en) Speech-processing system
US6963834B2 (en) Method of speech recognition using empirically determined word candidates
CN116917984A (zh) 交互式内容输出
US20040019488A1 (en) Email address recognition using personal information
CN110809796B (zh) 具有解耦唤醒短语的语音识别系统和方法
JP7107228B2 (ja) 情報処理装置および情報処理方法、並びにプログラム
US11735178B1 (en) Speech-processing system
KR100622019B1 (ko) 음성 인터페이스 시스템 및 방법
JP4228442B2 (ja) 音声応答装置
JP2007121577A (ja) 音声再生装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080827

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090707