JP2001508200A - 音声に基づいた相互通信システムにおいて、比較的複雑な複数のレベルでの音声処理を共有する選択ハードウェアのための方法及びシステム - Google Patents

音声に基づいた相互通信システムにおいて、比較的複雑な複数のレベルでの音声処理を共有する選択ハードウェアのための方法及びシステム

Info

Publication number
JP2001508200A
JP2001508200A JP52798499A JP52798499A JP2001508200A JP 2001508200 A JP2001508200 A JP 2001508200A JP 52798499 A JP52798499 A JP 52798499A JP 52798499 A JP52798499 A JP 52798499A JP 2001508200 A JP2001508200 A JP 2001508200A
Authority
JP
Japan
Prior art keywords
speech
item
voice
recognized
understand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP52798499A
Other languages
English (en)
Inventor
ミカエル ジョースト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Electronics NV filed Critical Philips Electronics NV
Publication of JP2001508200A publication Critical patent/JP2001508200A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Abstract

(57)【要約】 多局相互通信システムにおいて、人間の音声は一般的複雑さの少なくとも2つのそれぞれのレベルで処理される。音声は1つ以上の基準局で並列に受信され、音声を理解にするために必要なものが関連するアプリケーション環境の中で検出される。相互通信は分散された形態において制御され、認識すべき時間的な音声項目を検出し、上記音声項目を、複数の分散した音声認識機能のうちの1つ以上の音声認識機能に動的に割り当てることにより、最終的に、認識された項目を生成する。さらに、該当するアプリケーションの内容において認識された項目を理解するために、認識された項目を複数の音声理解機能のうちの1つ以上の音声理解機能に割り当てて理解された音声項目を生成して相互通信は制御される。割当ては、偶然性と統計的方法の組合せに基づいて、分散した形態で行われる。

Description

【発明の詳細な説明】 音声に基づいた相互通信システムにおいて、比較的複雑な複数のレベルでの音 声処理を共有する選択ハードウェアのための方法及びシステム 背景技術 本発明は、人間の音声を認識する多局相互通信システムの動作方法に関する。 米国特許5,471,521には、第1のコンピュータが入ってくる電話の呼出 音を処理し、第2のコンピュータが所望のテクニカルプロセスを行うシステムが 記載されている。様々なサーバが存在している。本発明者は分散している多くの 加入者に提供する多くの通信システムの中で、音声処理の複雑さを様々なレベル で認識するとともに、そのような様々なレベル間の動きを処理するときの頻繁な 変化を短い通知で認識している間に、役立つ機能を効率的な方法で分配する必要 性を認識していた。さらに、そのシステムは高い信頼性を提供すべきであり、そ のために、そのトポロジを自動的に再構成することができるべきである。 発明の開示 従って、相互のサーバ間で、本発明の目的は、コンピュータに集中するタスク が、動的な基礎に基づいてもっとも適した機能に即座に分散されるように、分散 型音声処理方法を改善することであり、その結果、全てを処理する処理能力が最 大限効果的に使用され、局所的な過負荷は、限られたオーバヘッド量に対しての みかかるだけで、かなりの割合で避けられる。それ故に、本発明の態様の1つに よれば、本発明は、請求項1の特徴部分に示されているように特徴づけられる。 また、本発明は、請求項1に記載された方法を実施するために構成されたシス テムに関する。また、本発明は、請求項1に記載された内容の方法、及び/又は 請求項2に記載されたシステムの部分を動作するサブシステム機能に関する。さ らに、本発明の好ましい態様は、従属項に記載されている。 本発明の上記のシステム、サブシステム機能、及び好ましい態様は、以下に示 されている好ましい実施例、特に添付されている第1図〜第5図を参照しながら さらに詳細に言及される。 図面の簡単な説明 図1は、本発明のシステム図である。 図2は、リクエスタ局のブロック図である。 図3は、システムの対話形式図である。 図4は、局とサーバ局との結合を示す図である。 図5は、分配されたネットワークブローカ装置を示す図である。 発明を実施するための最良の形態 図1は、本発明のシステム図である。この図には、リング形状の物理的ネット ワーク22が示されている。しかしながら、本発明では、そのネットワークの構 造を問うものではない。また、ネットワークプロトコルも問うものでもない。こ の実施例では、多数のユーザ局が存在するが、そのうちの符号24−32が付さ れたユーザ局のみが示されている。ユーザ局はユーザの音声を受信するのに適し ており、もし必要ならば、テープレコーダから発せられるような、機械が生成し た音声あるいは他のシミュレートされたタイプの人間音声を出力するのに適合さ せることができる。ユーザ局を電話網の中の無人ゲートウェイとしてもよい。ま た、システム出力を文字表示の形態にしてもよい。実際は、全ての局の数は、1 00万のオーダにまで達し、そのうちの数千の局はいつでも、実際の対話に使用 されている。対話は情報システムに適合しており、そのシステムでは、ユーザが 、大容量のデータベース20へのアクセスを行っている。他の分野での使用とし て、電車の切符のような項目のサービスのオーダに使用したり、あるいは、認識 内容について質問したり答えをチェックしたりする大規模な面接システムに使用 したりしてもよい。対話は、双方のそれぞれの側からもう一方の側に向けて、不 確定な内容あるいは構成を有する情報に関していてもよく、対話の結果に基づい て、そのシステムは関連する選択をする。 アナログ音声は適切な前置装置あるいは受信局で受信され、ネットワーク22 を簡単に伝送するデジタルコードのストリームに変換される。代わりに、局は、 直接的に、例えばISDN電話網からのデジタルコード音声を受信してもよい。 受信された音声の処理は、様々な異なったレベルでの分析が要求される。開示 するという目的のため、実施例では、2つの異なったサーバの組のみが示されて いる。第1に、音声認識局36−40は、デジタルコードのストリングを受信す るように構成され、また、単語、音素、あるいは他の項目のシーケンスの行先に 音声のストリームを作成するために、単語モデル、言語モデル、及び他の可能な モデルを使用するように構成されている。最後に、音声理解サブシステム42− 46は、その他の認識される単語のストリングを受信するように構成され、また 、認識された単語のストリームを、実際の対話の進行に関係するような内容を有 する列情報に作成するために、1つ以上の対話モデルを使用するように構成され ている。このシステムは、何かの”故障中”の指示を示すかもしれないし、早口 で発音された言葉を繰り返したりあるいは明確にするようなやり方に変更するよ うにユーザに勧告するかもしれない。おそらく、ユーザは、結局、いくつか理解 しやすい音声情報を提供し、システム20は対話の内容に合うような出力をする 。その出力は、当意即妙なユーザの文、問題の解答、システムにより確かに理解 されたということをユーザに指示するようなもっともありそうな項目、あるいは 別の興味本位の文かもしれない。原則として、別のタイプの答えも可能である。 上述したように、分散した機能への様々なタスクの割当ては、全体としてシス テムにより実行され、この分散させた形態では、この点で、特別なレベルの複雑 さあるいは機能にいくつかの助けが必要である信号方式は別にして、ユーザのア プリケーションは受身的である。特別な処理機能が該当するアプリケーションに 割り当てられた後、ユーザ局は処理されるべき情報を転送するかもしれない。 図2は、特別なユーザ局あるいは前置局に親密に関係しているリクエスタ局6 0のブロック図である。ユーザは、そのリクエスタ局に、双方向音声チャンネル 50により連結されている。音声は音声入力サブシステム52及び音声出力サブ システム54により、双方向に変換される。その変換された音声情報は音声認識 サーバ62に伝送される。認識された音声は地方局60に戻され、その後部分的 に音声理解モジュール56で処理される。その処理された音声はブロック58に 伝送される。そのブロック58は、実際のアプリケーションを表しており、接続 50の出力線を制御する。音声認識は、しばしば、音声理解のような大部分の他 の処理項目と比較してコンピュータに集中し、そのため、対話の動きは、地方音 声理解モジュール56に対し、高速で遠隔の音声認識サブシステム62の使用に 適していることがわかる。図1において、音声理解は、それを遠くで実行するた めかなり複雑だと思われている。このようなことは、基本的な情報変換機能の複 雑さ、音声が実際に正しく理解しているかどうかのチェックに要求される確実性 の程度、侵入から安全でなければならない正味の転送についての確実な安全の状 況、及び、多くのコンピュータ機能の使用が必要であるその他の状況により、引 き起こされる。図2において、音声認識サーバはこのようなサーバの一例である 。実際、サーバマシーンは、複数の音声認識器の役割を果たしており、それ故に 、多数のクライアントに同時にサービスを提供し、リアルタイムという制限で実 行することができる。さらに、ユーザは全対話時間のうちのわずかしか話さない ため、1つの認識サーバを、多数のクライアントと共有することができる。ユー ザの発音にリアルタイムで反応すると、1/10秒オーダ程度の、人間の主観的 な期待に相当する遅延を生じる。さらに、示されたクライアントシステムは、多 重電話回線の音声データ、データベースアクセス、及びアプリケーションプログ ラムのようなI/Oのトラフィックを取り扱うのに専念している。 図3は、両側対話に基づいたシステムの相互作用図である。下部線は、受話器 を取るユーザ等による対話の開始の検出を示しており、そのシステムは、挨拶文 、あるいは、最初の質問あるいは勧告文を出力する。上部線は、ユーザが音声で 最初の質問あるいは最初の答えを提供することを示す。さらに、下部線は、上部 線に示した反応に対して、システムがユーザに対し、別の文章、質問、あるいは 他の音声項目を提供することを示す。これは、上部線におけるユーザからの別の 発音によって続けられる。結局、そのシステムは、最終的な情報量を提供し、あ るいはユーザの要求を確認する。そしてユーザから離れる。システムが音声を出 力する限りは、認識機能は、該当する対話に関しては動作していない。このこと はまた、ユーザが発した音声については中止に当てはまる。さらに、人間が発し た音声が受信されると、マシンの音声の生成は中断される。 図4は、セレクタ96,98によりネットワーク100に接続される、92で 示すユーザ局と94で示すサーバ局との結合を示す。もし、音声認識機能がネッ トワーク環境に受け入れられると、他の対話が中止の間、コンピュータのパワー を利用するために、その機能が異なった対話間で共有されることが可能である。 このようなシナリオで、ハードウェアあるいはソフトウェアで実現される音声認 識器の数は、リアルタイムで認識するという制限を破らずに、同時に行われる対 話の実際の数よりも少ない。音声認識器は、発音に基づいたアプリケーション対 話に割り当てられるが、一般的には、特別な対話には決して割り当てられない。 音声データストリームは、使用可能な音声認識器で経路が定められる。その認識 器は、また、新しい発音がある特定のサーバに割り当てられているたびに、言語 モデル及び語彙のような特定の認識内容を活性化する。この実施例では、多数の 音声認識サーバ及び多数のクライアントシステムで、各発音は異なったサーバで 評価され、各音声認識サーバは、様々な異なるクライアントシステム及び/又は 対話から連続的に続く発音を受信する。サーバのコンピュータパワーに依存して 、それらサーバは、各々いくつかの音声認識処理を並列に提供し、リアルタイム という限定で実行する。また、クライアントは、多くの対話を並列に提供する。 このシナリオでは、発音に基づいた経路を定めることにより、有効なコンピュー タ機能を使用するときに、最高のフレキシブルが提供される。 図5は、ネットワーク110に関する、分配されたブローカ装置を示す図であ る。自然な言語音声対話により制御された情報システムでは、音声認識器は、そ のネットワークを経由してアプリケーションクライアントシステム112,11 4と接続されているサーバシステム116,118に集められる。ネットワーク 構造は、示された4つのシステムそれぞれにローカルネットワークブローカを有 しており、それら4つのシステムはリクエスタと資源とを同数にする。もし、特 定のクライアントシステムの特定の対話に音声認識が必要の場合、話し手が発音 し始めるため、該当するブローカは、ネットワークの任意のサーバシステムに配 置された使用可能な音声認識器を発見する。そのブローカは音声データストリー ムの経路を特定の音声認識器に定め、クライアントシステムの対話アプリケーシ ョンにワードグラフの結果を戻す。 マシンの依存性と、手動で動かす努力を減らすため、ネットワークブローカは 、完全な分散構造である。それは、現在存在するクライアントシステムとサーバ システムの形態に適合する、自動で動的な形態構造を使用する。付加的なサーバ 局 及びクライアント局は、既に存在しているシステムを分散させたりあるいは変化 させたりしなくても、環境に加えられることができる。加えられるクライアント は使いたいサーバをすぐに使用することができ、加えられるサーバは、クライア ントによりすぐに使用されるサーバとして考えられる。もし、クライアントシス テムあるいはサーバシステムが、故障あるいはスイッチオフされた場合、この特 定のマシンにより取り扱われる対話のみに影響がある。残りのシステムは、遠隔 の要素なしで実行するために自動的に再構成される。 ネットワークブローカは、2種類の要素から成る。1つはクライアント側に属 する要素であり、もう1つは音声認識サーバ側に属する要素である。このような 各要素は、そのもう一方の要素の各部分に作用しているため、ブローカ部分間は 大いに関係がある。各ネットワークブローカは多くの対話あるいは音声認識を処 理している。 音声認識器はサーバシステム内に構成され、その音声認識器はネットワークを 経由してアプリケーションクライアントシステムに接続されている。そのネット ワークブローカは、リクエスタと資源とを同数にする部分である。もし、クライ アントシステムの対話に音声認識器が必要ならば、そのブローカは、そのネット ワークに存在するどのサーバシステムについても、有効な音声認識器を見つける 。簡単な統計的方法は特定の資源の割当てに使用される。音声認識はリアルタイ ムという限定で行われており、つまり、同時にされた発音が1つの認識サーバシ ステムに割り当てられないということは、リアルタイムで評価できないというこ とと同じであるということが負荷分散の方法により確かとなる。多くのクライア ントが衝突するというリスクはランダム選択方法により最小となる。多様な発音 に対してそれぞれ異なるプロセッサ資源を要求するならば、予測の計算が不要で ある負荷分散により取り扱われる。この方法は以下に示す利点を有している。 ・構成が簡単である。 ・認識器の有効性、認識器それぞれの認識力、言語モデルや語彙等の関連する 文脈といった分散した資源情報に基づいて処理できる。 ・選択手続きが簡単である。クライアントは全サーバの中の利用したい資源の テーブルを使用することができ、利用したい認識器を探すために各サーバそれぞ れを訪れる必要がない。それ故に、割当ては、リアルタイムという制限で素早く 行われる。 ・多数のクライアントから同じサーバへの同時に行われるアクセスは該当する サーバの処理により解決される。その処理により、どのクライアントが使用可能 な認識器に接続できるかが決定される。 ・たとえ、輻輳の状況でのサーバの割当てが特定のサーバについてリアルタイ ムで行われることを侵害しても、用意された認識器は、輻輳の状況に割り当てら れるサーバに構成される。用意された資源は、他のリアルタイムで使用される認 識器はネットワークでは利用できないか、あるいは、同時の要求が最終的にリア ルタイムで使用できるサーバの資源で生じるかのどちらかの異常事態のときにの み割り当てらるということが、負荷分散アルゴリズムにより確実となる。 本発明による、遠隔および分配された処理の特別な利点は、構成をセットアッ プする必要がないためシステムが十分保証されているということである。

Claims (1)

  1. 【特許請求の範囲】 1.多数の並列的に共存する局に受信される音声に関して、一般的複雑さの少な くとも2つのそれぞれのレベルで音声処理が行われる多局相互通信システムの 動作方法において、 1つ以上の基準局で人間音声を受信し、そのような音声を理解にするために 必要なものを関連するアプリケーション環境の中で検出するステップと、 認識すべき時間的な音声項目を検出し、前記音声項目を、複数の分散した音 声認識機能のうちの1つ以上の音声認識機能に動的に割り当てることにより、 最終的に、認識された項目を生成する、分散された形態における実際の相互通 信を制御するステップと、 該当するアプリケーションの文脈において前記認識された項目を理解するた めに、前記認識された項目を複数の音声理解機能のうちの1つ以上の音声理解 機能に割り当てて理解された音声項目を生成して実際の通信を制御する別のス テップと、 偶然性と統計的方法の組合せに基づいて、分散した形態での前記割当てを行 うステップとを備えたことを特徴とする方法。 2. 前記音声理解は該当する基準局に割り当て戻されることを特徴とする請求 項1に記載の方法。 3. 前記音声理解は動的形態に割り当てられることを特徴とする請求項1に記 載の方法。 4. 請求項1に記載した方法を実行するように構成されたシステム。 5. 請求項1に記載したような内容の方法で動作するように構成されたサブシ ステム機能。
JP52798499A 1997-11-14 1998-10-19 音声に基づいた相互通信システムにおいて、比較的複雑な複数のレベルでの音声処理を共有する選択ハードウェアのための方法及びシステム Pending JP2001508200A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP97203554 1997-11-14
EP97203554.7 1997-11-14
PCT/IB1998/001651 WO1999026233A2 (en) 1997-11-14 1998-10-19 Hardware sharing in a speech-based intercommunication system

Publications (1)

Publication Number Publication Date
JP2001508200A true JP2001508200A (ja) 2001-06-19

Family

ID=8228925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP52798499A Pending JP2001508200A (ja) 1997-11-14 1998-10-19 音声に基づいた相互通信システムにおいて、比較的複雑な複数のレベルでの音声処理を共有する選択ハードウェアのための方法及びシステム

Country Status (5)

Country Link
US (1) US6327568B1 (ja)
EP (1) EP0954855B1 (ja)
JP (1) JP2001508200A (ja)
DE (1) DE69814819T2 (ja)
WO (1) WO1999026233A2 (ja)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174299B2 (en) * 1995-08-18 2007-02-06 Canon Kabushiki Kaisha Speech recognition system, speech recognition apparatus, and speech recognition method
US7003463B1 (en) * 1998-10-02 2006-02-21 International Business Machines Corporation System and method for providing network coordinated conversational services
WO2000058942A2 (en) * 1999-03-26 2000-10-05 Koninklijke Philips Electronics N.V. Client-server speech recognition
US20050261907A1 (en) * 1999-04-12 2005-11-24 Ben Franklin Patent Holding Llc Voice integration platform
US20050091057A1 (en) * 1999-04-12 2005-04-28 General Magic, Inc. Voice application development methodology
US6408272B1 (en) 1999-04-12 2002-06-18 General Magic, Inc. Distributed voice user interface
WO2001004876A1 (en) * 1999-07-13 2001-01-18 British Telecommunications Public Limited Company Distributed object oriented architecture for speech understanding
US7330815B1 (en) 1999-10-04 2008-02-12 Globalenglish Corporation Method and system for network-based speech recognition
US6442519B1 (en) * 1999-11-10 2002-08-27 International Business Machines Corp. Speaker model adaptation via network of similar users
US7050977B1 (en) 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
US9076448B2 (en) 1999-11-12 2015-07-07 Nuance Communications, Inc. Distributed real time speech recognition system
US7725307B2 (en) 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
US6665640B1 (en) 1999-11-12 2003-12-16 Phoenix Solutions, Inc. Interactive speech based learning/training system formulating search queries based on natural language parsing of recognized user queries
US6615172B1 (en) 1999-11-12 2003-09-02 Phoenix Solutions, Inc. Intelligent query engine for processing voice based queries
US6633846B1 (en) * 1999-11-12 2003-10-14 Phoenix Solutions, Inc. Distributed realtime speech recognition system
US6757362B1 (en) * 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
JP3581648B2 (ja) 2000-11-27 2004-10-27 キヤノン株式会社 音声認識システム、情報処理装置及びそれらの制御方法、プログラム
US7366673B2 (en) * 2001-06-15 2008-04-29 International Business Machines Corporation Selective enablement of speech recognition grammars
AU2002316581A1 (en) 2001-07-03 2003-01-21 University Of Southern California A syntax-based statistical translation model
US6950795B1 (en) * 2001-10-11 2005-09-27 Palm, Inc. Method and system for a recognition system having a verification recognition system
US7146321B2 (en) * 2001-10-31 2006-12-05 Dictaphone Corporation Distributed speech recognition system
US7133829B2 (en) * 2001-10-31 2006-11-07 Dictaphone Corporation Dynamic insertion of a speech recognition engine within a distributed speech recognition system
US20030144837A1 (en) * 2002-01-29 2003-07-31 Basson Sara H. Collaboration of multiple automatic speech recognition (ASR) systems
WO2004001623A2 (en) 2002-03-26 2003-12-31 University Of Southern California Constructing a translation lexicon from comparable, non-parallel corpora
US7292975B2 (en) * 2002-05-01 2007-11-06 Nuance Communications, Inc. Systems and methods for evaluating speaker suitability for automatic speech recognition aided transcription
US7236931B2 (en) 2002-05-01 2007-06-26 Usb Ag, Stamford Branch Systems and methods for automatic acoustic speaker adaptation in computer-assisted transcription systems
US7797159B2 (en) * 2002-09-16 2010-09-14 Movius Interactive Corporation Integrated voice navigation system and method
US7571100B2 (en) * 2002-12-03 2009-08-04 Speechworks International, Inc. Speech recognition and speaker verification using distributed speech processing
US8548794B2 (en) 2003-07-02 2013-10-01 University Of Southern California Statistical noun phrase translation
US8296127B2 (en) 2004-03-23 2012-10-23 University Of Southern California Discovery of parallel text portions in comparable collections of corpora and training using comparable texts
US8666725B2 (en) 2004-04-16 2014-03-04 University Of Southern California Selection and use of nonstatistical translation components in a statistical machine translation framework
KR100636317B1 (ko) 2004-09-06 2006-10-18 삼성전자주식회사 분산 음성 인식 시스템 및 그 방법
KR100695127B1 (ko) 2004-10-08 2007-03-14 삼성전자주식회사 다 단계 음성 인식 장치 및 방법
DE112005002534T5 (de) 2004-10-12 2007-11-08 University Of Southern California, Los Angeles Training für eine Text-Text-Anwendung, die eine Zeichenketten-Baum-Umwandlung zum Training und Decodieren verwendet
US8024194B2 (en) * 2004-12-08 2011-09-20 Nuance Communications, Inc. Dynamic switching between local and remote speech rendering
US8886517B2 (en) 2005-06-17 2014-11-11 Language Weaver, Inc. Trust scoring for language translation systems
US8676563B2 (en) 2009-10-01 2014-03-18 Language Weaver, Inc. Providing human-generated and machine-generated trusted translations
US7389222B1 (en) * 2005-08-02 2008-06-17 Language Weaver, Inc. Task parallelization in a text-to-text system
US8032372B1 (en) 2005-09-13 2011-10-04 Escription, Inc. Dictation selection
US10319252B2 (en) 2005-11-09 2019-06-11 Sdl Inc. Language capability assessment and training apparatus and techniques
US8943080B2 (en) 2006-04-07 2015-01-27 University Of Southern California Systems and methods for identifying parallel documents and sentence fragments in multilingual document collections
US8886518B1 (en) 2006-08-07 2014-11-11 Language Weaver, Inc. System and method for capitalizing machine translated text
US8433556B2 (en) 2006-11-02 2013-04-30 University Of Southern California Semi-supervised training for statistical word alignment
US9122674B1 (en) 2006-12-15 2015-09-01 Language Weaver, Inc. Use of annotations in statistical machine translation
US8468149B1 (en) 2007-01-26 2013-06-18 Language Weaver, Inc. Multi-lingual online community
US8615389B1 (en) 2007-03-16 2013-12-24 Language Weaver, Inc. Generation and exploitation of an approximate language model
US8831928B2 (en) 2007-04-04 2014-09-09 Language Weaver, Inc. Customizable machine translation service
US8825466B1 (en) 2007-06-08 2014-09-02 Language Weaver, Inc. Modification of annotated bilingual segment pairs in syntax-based machine translation
US8019608B2 (en) * 2008-08-29 2011-09-13 Multimodal Technologies, Inc. Distributed speech recognition using one way communication
US8494857B2 (en) 2009-01-06 2013-07-23 Regents Of The University Of Minnesota Automatic measurement of speech fluency
US8990064B2 (en) 2009-07-28 2015-03-24 Language Weaver, Inc. Translating documents based on content
US8380486B2 (en) 2009-10-01 2013-02-19 Language Weaver, Inc. Providing machine-generated translations and corresponding trust levels
US8346549B2 (en) 2009-12-04 2013-01-01 At&T Intellectual Property I, L.P. System and method for supplemental speech recognition by identified idle resources
US10417646B2 (en) 2010-03-09 2019-09-17 Sdl Inc. Predicting the cost associated with translating textual content
US9246914B2 (en) 2010-07-16 2016-01-26 Nokia Technologies Oy Method and apparatus for processing biometric information using distributed computation
US20120078635A1 (en) * 2010-09-24 2012-03-29 Apple Inc. Voice control system
US10049669B2 (en) 2011-01-07 2018-08-14 Nuance Communications, Inc. Configurable speech recognition system using multiple recognizers
US8810368B2 (en) 2011-03-29 2014-08-19 Nokia Corporation Method and apparatus for providing biometric authentication using distributed computations
US11003838B2 (en) 2011-04-18 2021-05-11 Sdl Inc. Systems and methods for monitoring post translation editing
US8694303B2 (en) 2011-06-15 2014-04-08 Language Weaver, Inc. Systems and methods for tuning parameters in statistical machine translation
US8886515B2 (en) 2011-10-19 2014-11-11 Language Weaver, Inc. Systems and methods for enhancing machine translation post edit review processes
US8972263B2 (en) * 2011-11-18 2015-03-03 Soundhound, Inc. System and method for performing dual mode speech recognition
US8942973B2 (en) 2012-03-09 2015-01-27 Language Weaver, Inc. Content page URL translation
WO2013138633A1 (en) 2012-03-15 2013-09-19 Regents Of The University Of Minnesota Automated verbal fluency assessment
US10261994B2 (en) 2012-05-25 2019-04-16 Sdl Inc. Method and system for automatic management of reputation of translators
EP2904608B1 (en) 2012-10-04 2017-05-03 Nuance Communications, Inc. Improved hybrid controller for asr
US9152622B2 (en) 2012-11-26 2015-10-06 Language Weaver, Inc. Personalized machine translation via online adaptation
US9213694B2 (en) 2013-10-10 2015-12-15 Language Weaver, Inc. Efficient online domain adaptation
US10971157B2 (en) 2017-01-11 2021-04-06 Nuance Communications, Inc. Methods and apparatus for hybrid speech recognition processing
US10410635B2 (en) 2017-06-09 2019-09-10 Soundhound, Inc. Dual mode speech recognition

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4955054A (en) * 1988-10-05 1990-09-04 Precision Software Incorporated Integrated telecommunication system with improved digital voice response
US5349526A (en) * 1991-08-07 1994-09-20 Occam Research Corporation System and method for converting sentence elements unrecognizable by a computer system into base language elements recognizable by the computer system
GB2280820A (en) * 1993-07-29 1995-02-08 Ibm Distributed system for call processing
US5666400A (en) * 1994-07-07 1997-09-09 Bell Atlantic Network Services, Inc. Intelligent recognition

Also Published As

Publication number Publication date
WO1999026233A2 (en) 1999-05-27
DE69814819T2 (de) 2004-04-01
EP0954855B1 (en) 2003-05-21
EP0954855A2 (en) 1999-11-10
US6327568B1 (en) 2001-12-04
WO1999026233A3 (en) 1999-07-22
DE69814819D1 (de) 2003-06-26

Similar Documents

Publication Publication Date Title
JP2001508200A (ja) 音声に基づいた相互通信システムにおいて、比較的複雑な複数のレベルでの音声処理を共有する選択ハードウェアのための方法及びシステム
Sharma et al. An analytical study and review of open source chatbot framework, rasa
US10121475B2 (en) Computer-implemented system and method for performing distributed speech recognition
AU2004237227B2 (en) Apparatus and method for processing service interactions
WO2021051506A1 (zh) 语音交互方法、装置、计算机设备及存储介质
US20210157989A1 (en) Systems and methods for dialog management
US6373939B1 (en) Machine assisted system for processing and responding to requests
EP1806735B1 (en) System and method for performing distributed speech recognition
CN110392168B (zh) 呼叫处理方法、装置、服务器、存储介质和系统
US8160876B2 (en) Interactive speech recognition model
CN101207584B (zh) 自动提供文本交换服务的方法和系统
US8494127B2 (en) Systems and methods for processing audio using multiple speech technologies
CN109729228A (zh) 人工智能呼叫系统
CN108028044A (zh) 使用多个识别器减少延时的语音识别系统
US7424428B2 (en) Automatic dialog system with database language model
US7552225B2 (en) Enhanced media resource protocol messages
JP6689953B2 (ja) 通訳サービスシステム、通訳サービス方法及び通訳サービスプログラム
CN110489670A (zh) 一种基于多维地图的民生服务移动应用平台系统及其使用方法
EP3451189A1 (en) A system and method for user query recognition
JP2024506448A (ja) 意図分類のコンテキスト内の信頼度分類器
CN112583984A (zh) 基于语音交互的坐席分配方法、装置、系统、设备及介质
WO2022071826A1 (ru) Система и способ автоматизации обработки голосовых обращений
CN112311938B (zh) 一种智能呼叫方法、装置和电子设备
KR102346110B1 (ko) 인공지능을 이용한 상담 서비스 제공 방법 및 장치
CN113342962A (zh) 客服方法、系统、设备及存储介质