JP2003517158A - 分散型リアルタイム音声認識システム - Google Patents

分散型リアルタイム音声認識システム

Info

Publication number
JP2003517158A
JP2003517158A JP2001537046A JP2001537046A JP2003517158A JP 2003517158 A JP2003517158 A JP 2003517158A JP 2001537046 A JP2001537046 A JP 2001537046A JP 2001537046 A JP2001537046 A JP 2001537046A JP 2003517158 A JP2003517158 A JP 2003517158A
Authority
JP
Japan
Prior art keywords
voice
query
user
recognition
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001537046A
Other languages
English (en)
Other versions
JP4987203B2 (ja
Inventor
エム. ベネット、イアン
ラメッシュ バブ、バンディ
モルクハンディカール、キショール
グルラジ、パラキ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Phoenix Solutions Inc
Original Assignee
Phoenix Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=23743469&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2003517158(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Phoenix Solutions Inc filed Critical Phoenix Solutions Inc
Publication of JP2003517158A publication Critical patent/JP2003517158A/ja
Application granted granted Critical
Publication of JP4987203B2 publication Critical patent/JP4987203B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2452Query translation
    • G06F16/24522Translation of natural language queries to structured queries
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/285Memory allocation or algorithm optimisation to reduce hardware requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)

Abstract

(57)【要約】 ユーザによって発声されたクエリーを認識するために音声認識及び言語学的処理を含み、クライアント(150)及びサーバ(180)に分散されたリアルシステム(100)が開示される。システム(100)は、クライアント(150)における音声形式のユーザのクエリーを受け、発声を示す音響御晴雨ベクトルの十分な数を抽出する最小の処理である。これらのベクトルは、通信チャンネル(160A)を介して追加の音響ベクトルが導き出されるサーバ(180)に送られる。ヒドンマルコフモデル(HMMs)とユーザによってなされた選択により条件の適当な文法と辞書を用いてユーザのクエリーを示す音声が、サーバ(180)において完全にテキスト(または他の適当な形式)に復号される。ユーザクエリーに対応するテキストは、最適化されたSQLステートメントが、ユーザのクエリーに最も一致する幾つかの格納された質問のレコードセットに関するデータベース(188)から全文検索を構築する自然語エンジン(190)とデータベースプロセッサ(186)に同時に送信される。自然語エンジン(190)におけるさらなる処理が、単一の格納された質問にサーチが所ぼり込まれる。単一の格納された質問に対応する回答は、次にファイルパスから検索され、圧縮形式でクライアント(150)に送信される。クライアント(150)において、ユーザのクエリーに対する回答は、彼又は彼女の自然語によりテキストー音声エンジン(159)を用いててユーザに対して発声される。システム(100)は、トレーニングを必要とせず、幾つかの自然語により動作する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】
関連出願 本発明は、同時に提出された以下の出願人関連している。 1)音声式学習/教育システム、代理人ケース番号PHO99−002 2)対話性能を向上するための音声をサポートしたインターネットサーバ、代理
人ケース番号PHO99−003 3)音声による照会を処理するためのインテリジェント照会エンジン、代理人ケ
ース番号PHO−004 上記の関連出願は、開示の一部として援用する。
【0002】 この発明は、インターネットまたは局地的イントラネット等の分散ネットワー
ク上に与えられるユーザの音声入力及び照会に応答するシステム及び対話方法に
関するものである。インターネットのワールドワイドウエブ(WWW)サービス
上で実施された場合、この対話システムは、クライアント又はユーザが英語、仏
語、独語、スペイン語、日本語等の自然語により質問をすることが出来、彼又は
彼女の母国語による適当な回答を彼又は彼女のコンピュータまたはその周辺機器
で受け取ることができるように機能する。このシステムは、遠隔学習、電子商取
引(e-commerce)、技術的電子支援サービス(technical e-support service)、イ
ンターネット検索等に特に有用である。
【0003】
【従来の技術】
インターネット、特にワールドワイドウエブ(WWW)は、人気の面及び商業
的及び娯楽目的の双方での利用の面で成長をつづけており、この傾向は継続する
ものと予測される。パーソナルコンピュータシステムの使用の増加及び普及や低
価格のインターネット接続の可能になったことが、この現象の加速の一因となっ
ている。安価なインターネット接続装置及びADSL、ケーブルモデム、衛星モ
デム(satellite modem)等の高速アクセス技術の出現により、WWWの大量使用
がさらに加速するものと予測される。
【0004】 従って、WWW上においてサービス、製品等を提供している多くの事業者が、
ここ数年で劇的に増加するものと予測される。しかしながら、今日まで、ユーザ
のインターネット「経験」は、ほとんどキーボードや、インテリジェント電子パ
ッド、マウス、トラックボール、プリンタ、モニタ等の非音声入力・出力に限ら
れている。これが、いろいろな意味でWWW上における対話に対する何らかのボ
トルネックとなっている。
【0005】 まず、第一に、熟練度の問題がある。多くの種類のアプリケーションが、音声
を用いる環境に、より自然で、円滑に適合しようとしている。例えば、オーディ
オ記録物を購入しようとするほとんどの人にとり、レコード店等において、その
店において見つけることが出来る特定の作者のタイトルの情報を店員に尋ねるこ
とは非常に気分の良いものである。インターネット上の項目を見つけ出すために
自分の所有する媒体上においてウエブページを閲覧し、検索することはしばしば
可能であるが、通常、最初に人間の助けを借りることは、ほとんど例外なく、よ
り容易であり、効率的である。この支援の要求は、音声による問い合わせの形で
行われる。さらに、物理的又は心理的障壁があるため、多くの人々は前述した従
来の入出力装置の何れも使用することが出来ないか、若しくは使用しない。例え
ば、多くの高齢者は、WWWページ上に存在するテキストを容易に読むことが出
来ないか、またはメニューのレイアウトや階層構造を理解できないか、若しくは
選択した項目を表示するためにうまく移動するためにマウスを操作することが出
来ない。多くの他の人々は、コンピュータシステムやWWWページ等のロック状
態や複雑にたじろがされ、この理由からもオンラインサービスを利用しようとし
ない。
【0006】 従って、通常の人間の対話を模倣することが出来るアプリケーションは、オン
ラーンショッピングをしたいと考えるユーザやWWW上で情報を探したいと考え
るユーザにとって好まれる傾向がある。また、音声によるシステムの使用は、電
子商取引や電子学習(e-learning)等に参加したいと考える人々の数を増加させ
るものと考えられる。しかしながら、今日まで、このタイプの対話を可能とする
システムは無くまたは有るとしてもきわめわずかであり、また、対話が行われる
にしても、その性能は非常に限られている。例えば、IBM(Via Voic
e)やKurzweil(Dragon)により販売されている種々の商用プログラムは
、インターフェースのユーザーによるある種の制御(ファイルの開閉)や(予め
学習されたURLを用いた)検索を可能とするが、時間がかかるボイストレーニ
ングを必要とせずに、異なる文化を持つ多くのユーザによる使用を可能とする融
通の解法を提供するものではない。インターネットにおいて音声による機能を実
施するための従来の一般的な試みは、本明細書において開示の一部として援用す
るアメリカ特許第5,819,220号に見ることが出来る。
【0007】 音声を基調とするシステムの欠如による他の問題は、効率である、多くの会社
は、今日、インターネット上で技術サポートを提供しており、そのいくつかはこ
うした問い合わせに対応するために人間のオペレータによる支援を提供している
。これは、(上記のような理由により)非常に有益ではあるが、こうした問い合
わせを取り扱うために人間を雇用することを必要とするため、非常にコストがか
かるとともに非効率である。これには、実用上の制限があり、応答までに長い待
ち時間を要したり、雇用者のオーバーヘッドが高くなる。この方法の例は、本明
細書の開示の一部として援用するアメリカ特許第5,802,526号に示され
ている。一般に、WWW上において提供されるサービスは「拡張可能」であるか
、または、換言すれば、予測されるユーザにおいて知覚される遅れや混乱が有る
としても、これが極僅かであったとしてもユーザトラヒックの増加を取り扱うこ
とが可能であるとすれば、非常に望ましい。
【0008】 同様の意味において、多くの学生にとって、遠隔学習は急激に人気が高まって
いる選択肢となっており、インストラクタにとって一度に二人以上からの質問に
答えることは実質的に不可能である。その場合にも、他のインストラクタの時間
的制約が有るために、こうした対話は、非常に限られた時間のみ行われるものと
なる。
【0009】 しかしながら、今日まで、学習セッション終了後に、またはこうした質問に対
して個人的に対応するためのインストラクタを必要とせずに、学生が人間による
質疑応答の対話を継続する実用的な方法は存在しない。
【0010】 一方、人間的な問答をエミュレートする他の態様は。口述によるフィードバッ
クを含んでいる。換言すれば、多くの人々にとって、回答や情報を音声による態
様で受けることが好ましい。この形式の機能は、ウエブサイトの訪問者との情報
交換を行うためにいくつかのウエブサイトにより採用されているが、これはリア
ルタイムの対話型の質疑応答として行われるものではなく、その有効性及び有用
性は限られている。
【0011】 音声による対話が有用なもう一つの分野は、YAHOO.com、nzeta
craaler.core、Excite.com等において利用可能なような
、ウエブサイトにおける興味のある情報を検索するためにインターネットのユー
ザによって使用される所謂「サーチ」エンジンである。これらのツールは、キー
ワードの組み合わせ又はメタカテゴリ(metacategories)を用いて検索用の設問(s
earch query)を形成して、一乃至複数の異なるウエブページに関連するテキスト
のインデックスを持つウエブページのデータベースを通して検索することを可能
とする。ユーザの要求を処理した後に、サーチエンジンは、一般にサーチエンジ
ンのよって使用されるサーチ処理ロジックの基づいてユーザの特定の質問の対し
てサーチエンジンが最も近い一致を検出したURLポインタとウエブページから
の抜粋に対応するヒット数を返送する。ウエブページのデータベースを構築する
とともに検索用の設問を解釈するメカニズムを含むこうした従来のサーチエンジ
ンの構造及び動作は、従来より周知である。今日まで、出願人が知る限り、ユー
ザからの検索入力に基づいて容易にしかも信頼性の高い情報のサーチ及び検索を
行うことが出来るサーチエンジンはない。
【0012】 こうした能力より得られる多くの利点があるにも拘わらず、上記の環境(電子
商取引、電子サポート、遠隔学習、インターネットサーチ等)において音声を基
調とするインターフェースが使用されないことには多くの理由がある。まず第一
に、音声認識装置の出力が出来得る限り正確で無くてはならないという明らかな
要求によるものである。現時点において使用される音声認識のためのより信頼性
の高い方法の一つは、ヒドンマルコフモデル(Hidden Markov Model (HMM)−全て
の時間列を算術的表現に使用されるモデルである。この技術の従来の用途は、例
えば、本明細書の一部として援用するアメリカ特許第4,587,670号に開
示されている。話し言葉は一乃至複数のシンボルの潜在的な連続を有していると
考えられるので、各シンボルに対応するHMMモデルは、話し言葉の波形からの
ベクトルから学習される。ヒドンマルコフモデルは、状態の有限集合であり、各
集合は(通常、多次元の)確率分布に関連付けられる。特定の状態において、結
果又は発言(observation)は、関連する確率分布に従って発生される。この有限
状態装置は、各時間単位毎に状態を変化させ、状態jに入る各時点tにおいて、
スペクトルの変数ベクトルOcが確率密度Bj(Ot)で発生される。これのみ
が結果であり、外部の観察者には見える状態ではなく、従って外部に対して状態
が「隠され(hidden」ているので、ヒドンマルコフモデルと呼ばれる。HMMの
基本理論は、1960年代後半から1970年代前半においてBaum及びその同僚
によって一連の古典的文献により刊行されている。HMMは、Carnegie Mellon
においてBakerによって口述の用途に使用され、1970年代後半にIBM
においてJelenik及びその同僚によって使用され、1990年代にイギリスのCam
bridge UniversityにおいてSteve Young及びその同僚により使用された。いくつ
かの代表的な刊行物及びテキストは以下の通りである。
【0013】 1.L. E. Baum, T. Petrie, 「有限状態マルコフチェインに対する確率関数に
関する統計的推論(Statistical inference for probabilistic fuinctions for
finite state Markov chains)」Ann. Math. Stat: 1554-1563, 1966 2. L. E. Baum, 「マルコフプロセスの確率関数の統計的推定における不等式及
び関連する最大化技術(An inequyality and associated maximation technique
in statistical estimation fpr probabilistic functions of Markov processe
s)」Inequalities 3:18, 1972 3. J. H. Baker,「ドラゴンシステム−概要(The dragon system - An Overview"
」、IEEE Trans. on ASSP Proc., ASSP-23(1), 24-29, Feby, 1975 4. F. Jeninek et al., 「連続音声認識:統計的方法(Continuous Speech Recog
nition: Statistical method)」、Handbook of Statistics, II, P. R. Kristna
iad, Ed. Amsterdam, The Netherlands. North-Holland 1982 6. J. D. Ferguson, 「ヒドンマルコフ分析:紹介(Hidden Markov Analysis: An
Introduction)」Hidden Markov Model for Speech, Institute of Defence Ana
lyses, Princeton, NJ., 1980 7. H. R. Rabiner及びB. H. Juang,「音声認識の基本(Fundamentals of Speech
Recognition)」Prentice Hall, 1993 8. H. R. Rabiner, 「音声信号のデジタル処理(Digital Processing of Speech
Signals)」、Prentice Hall, 1978 種々の研究機関において、音声認識の用途においてニューラルネットワークに
よりHMMを拡張しこれをHMMに組み合わせるより最近の研究が行われている
。以下はその代表的な刊行物である。 9. Nelson Morgan, Herve Bourlard, Steve Renals, Michael Cohen及びHoracio
Franco (1993), 連続音声認識のためのニューラルネットワーク/ヒドンマル
コフモデルのハイブリッドシステム(Hybrid Neural Network/Hidden Markov Mod
el System for Continuous Spoeech Recognition)、Journa; of Pattern Recogn
ition and Artificial Intelligence, Vol. 7, No. 4, pp 899-916及び I. Guyon及びP. Wang編、Advance in Pattern Recognition System using Neutr
al Networks, Vol. 7, of Series in Machine Perception and Artificial Inte
lligence, World Scientific, Feb. 1994
【0014】 上記全ての刊行物は、本明細書の開示の一部として援用する。HMMを基調と
する音声認識により、良好な結果を得ることが出来るが、この技術の最近の変化
は、全ての予測されるユーザ及び環境状態におけるWWWの用途において要求さ
れるのと同様の100%正確で矛盾しない言語の正確な要求を保証するものでは
ない。
【0015】 従って、ここ数年音声認識技術は使用可能であり、大幅に改良されてきてはい
るが、十分に機能するように音声認識及び自然語処理の組み合わせる用途に対し
て要求される音声認識の正確さに関する仕様において、技術的要求には厳しい制
約がある。
【0016】 言語認識とは逆に、自然語処理(NLP)は、書き写された発言や大きな言語
単位の解釈、理解及び見出し付けに関するものである。自然な音声は、どもり−
ためらい、訂正や再スタート、「うーん(well)」といった談話標識等の、一般的
な音声認識装置では取り扱うことが出来ない表面現象を含んでおり、これが問題
であり、音声認識と自然語処理技術とを分ける大きなギャップの原因となってい
る。発声の間の無音状態を除き、もう一つの問題は。言葉等の有意な単位に音声
をセグメント化するために仕様可能な句読点が存在しないことである。最適なN
LP性能を得るために、これらのタイプの現象は、その入力において注釈が付さ
れなければならない。しかしながら、最も連続的な音声認識システムは、生の言
語列を発声する。NLPを用いた従来のシステムの例は、アメリカ特許第4,9
91,094号、第5,068,789号、5,146,405号及び5,68
0,628号に示されている。これら全ては、明細書の開示の一部として援用す
る。
【0017】 第二に、非常に信頼性の高い音声認識システムのほとんどは、話者に依存し、
時間がかかるユーザによる「訓練(trained)」されたインターフェースを必要と
し、ユーザがエブサイトには数回しかアクセスしないようなWWW環境の見地で
は非常に望ましくないものである。さらに、話者に依存するシステムは、通常音
声の認識を減少させる大きなユーザ辞書(ユーザ一人に各一つの)を必要とする
。十分な応答性能(即ち、自然な会話を反映する−3〜5秒程度がおそらく理想
的と考えられる)を持つリアルタイム対話インターフェースを実施することを非
常に困難にしている。今日、代表的な市販の音声認識のためのアプリケーション
ソフトウエアには、IBM(Via Voice)やDragon(Dragon)から提供される
ものが含まれる。これらのアプリケーションのほとんどは、ディクテーションや
他の書き写しの用途については十分であるが、NLQS等の認識エラー率が0%
に近いことが要求される用途においては極めて不十分である。さらに、これらの
提供されるシステムは、長時間のトレーニング時間を必要とし、一般的には非ク
ライアント−サーバ構造である。他のタイプのトレーニングを要するシステムは
、Kurzweilに譲渡されたアメリカ特許第5,231,670号であり、これも本
明細書の開示の一部として援用する。
【0018】 もう一つの分散型音声基調のシステムが直面する重大な問題は、音声認識処理
における普遍性/制御の欠如である。音声認識システムの一般的スタンドアロン
による実施において、サーチエンジン全体が単一のクライアント上で実行される
。このタイプの周知のシステムは、本明細書の開示の一部として援用するアメリ
カ特許第4,991,217号に開示されている。これらのクライアントは種々
の音声信号処理及び通信性能を持つ種々の形態(デスクトップPC、ラップトッ
プPC、PDA等)を取り得る。従って、サーバ側の見地から、こうしたユーザ
は大きく異なる音声認識及びエラー率性能を有しているので、音声による操作可
能なウエブページにアクセスする全てのユーザの処理を均一化することは容易な
ことではない。Gould et al.−アメリカ特許第5,915,236号−の従来技
術は使用可能な計算リソースの組に対する認識処理の調製の概念について一般的
に説明しているが、この従来技術には、クライアント−サーバモデルのような分
散環境においてどのようにしてリソースを最適化するの問題の解決に至っておら
ずまた解決を試みてもいない・重ねて言えば、広範囲に分散した規模でこうした
音声基調の技術を可能とするためには、最も性能の低いクライアントをもサポー
ト可能とするとともに電子商取引、電子サポート及び/又は遠隔学習を実施する
遠隔サーバと満足の行く状態での対話を可能とするために、個別のシステムの違
いを調和させ、考慮するシステムを持つことが好ましい。
【0019】 音声認識のための分散型の方法に関する二つの参考文献は、本明細書の開示の
一部として援用するアメリカ特許第5,956,683号や第5,956,68
3号を含んでいる。これらの内の第一のシステム、アメリカ特許第5,956,
683号−分散型音声認識システム(Qualsommに譲渡された)において、電話基
調のハンドセットとリモートステーション間の分散型音声認識システムの実施が
開示されている。この実施において、全てのワード認識動作はハンドセットにお
いて行われているように見える。この特許は、狭帯域幅の電話チャンネルから生
じる量子化ひずみによる音響特性の劣化を制限するためにポータブル又は携帯電
話における音響特性の抽出のためにポータブル又は携帯電話にシステムを配置す
ることの利点を説明しているので、上記のように推測される。この文献は、非常
に低性能のクライアントのプラットフォームに関してどのようにして十分な性能
を得るかの問題に関するものではない。さらに、どのようにしてシステムがリア
ルタイムワード認識を行うのかを判断するのは困難であり、どのようにしてシス
テムを自然語処理システムに結合させるかに関する説得力のある説明はない。
【0020】 これらのうちの第二の参考文献−アメリカ特許第5,956,683号−クラ
ーアント/サーバ音声処理装置/認識装置(GTEに譲渡された)には、HMM
を基調とする分散型音声認識システムの実施について説明されている。この参考
文献は、多くの点において有益ではないが、適切な場合には部分的なワード認識
処理を行う等によって種々のクライアントのプラットフォームに対してどのよう
に音響特性の抽出を最適化するかを含んでいる。より重要には、ユーザの音声の
認識のみを行い、ユーザのマシン上の専用フォームに記入するためにユーザの名
前及び旅行目的地等のある種のキーワードを返す原始的音節に基づく認識装置の
みが開示されている。また、音響パラメータのストリーミングは、無音状態を検
出後にのみ行われるので、リアルタイムに実施されているとは考えられない。最
後に、参考文献は自然語処理の使用可能性に言及している(第9欄)が、どのよ
うにしてユーザに対話感覚を与えるようにリアルタイムで実施されるかに関して
は何らの説明もなされていない。
【0021】
【発明が解決しようとする問題点】
従って、本発明の目的は、上記の従来技術における制限を克服することが出来
る改良されたシステム及び方法を提供することにある。
【0022】 本発明の主要な目的は、広範なユーザグループに対して改良された精度、速度
及び普遍性を達成することが出来るクライアント/プラットフォーム演算アーキ
テクチャに亘って柔軟且つ最適に分散された単語及び句認識システムを提供する
ことにある。
【0023】 本発明のもう一つの目的は、如何なる数の言語においても個別の単語及び発言
全体を素早くしかも正確に認識出来るように分散ワード認識を自然語処理システ
ムに効率的に結合させる音声認識システムを提供することにある。
【0024】 本発明の関連する目的は、音声による問い合わせに応答して適切な回答の組を
非常に正確且つリアルタイムを与えることが出来る効率的な問い合わせ応答シス
テムを提供することにある。
【0025】 本発明のさらにもう一つの目的は、クライアント/サーバアーキテクチャ上に
分散された対話型リアルタイム教育/学習システムを提供することにある。
【0026】 本発明の関連する目的は、ユーザが人間的な対話を経験できるように明瞭に応
答する能力を備えた対話性を実施することにある。
【0027】 本発明のさらにもう一つの目的は、こうしたサイトとの対話に音声によるデー
タ及びコマンドを用いることが出来、容易に拡張可能な音声による電子商取引及
び電子サポートサービスを可能とするために音声認識性能を備えたインターネッ
トウエブサイトを提供することにある。
【0028】 本発明のもう一つに目的は、正確性及び速度を改良するために認識処理の一部
として環境変数を用いる分散型音声認識システムを実施することにある。
【0029】 本発明のさらにもう一つの目的は、特定のアプリケーション及び瞬間的な要求
に必要となる如何なる数の問い合わせ題目及びユーザをもサポートする拡張可能
な問い合わせ/回答データベースシステムを提供することにある。
【0030】 本発明のさらにもう一つの目的は、比較的短時間に予測される応答のリストを
より小さい候補の組に絞り込む第一のステップと、候補等から質問に応答して返
送する最良の選択を特定する演算としてより集約的な第二のステップを含む2段
階方式を採用する問い合わせ認識システムを提供することにある。
【0031】 本発明のさらにもう一つの目的は、こうした発言のために適切な予測される応
答の候補の組を迅速に特定するために成分を用いることが出来る、発言の単語成
分を抽出することによって問い合わせの認識を容易とする自然語処理システムを
提供することにある。
【0032】 本発明の関連する目的は、発言の単語成分をこうした問い合わせに対する非常
に正確な最良な応答を提供するために予測される応答の候補の組と比較すること
によって問い合わせの認識を容易とする自然語処理システムを提供することにあ
る。
【0033】
【問題を解消するための手段】
したがって、本発明の一つの全般的特徴は自然語質問システム(NLQS)に
関し、これはインターネットまたは局地的イントラネット等の分散ネットワーク
上でユーザの質問に答える完全に対話型の方法を提供するものである。この対話
システムは、インターネットのワールドワイドウエブ(WWW)サービス上で実
施された場合、クライアント又はユーザが英語、仏語、独語、スペイン語等の自
然語により質問をすることが出来るように機能し、また彼又は彼女の母国語の自
然語により適当な回答を彼又は彼女のパーソナルコンピュータで受け取るもので
ある。
【0034】 このシステムは分散され、クライアントの装置における統合ソフトウエアモジ
ュールのセットと、サーバ或いはサーバ群に存する統合ソフトウエアプログラム
の別のセットとからなる。クライアント側ソフトウエアプログラムは、音声認識
プログラム、エージェント及びその制御プログラム、及び通信プログラムとから
なる。サーバ側プログラムは、通信プログラム、自然語エンジン(NLE)、デ
ータベース処理装置(DB処理)DB処理をNLEと相互作用させるためのイン
ターフェースプログラム、及びSQLデータベースとからなる。さらに、クライ
アントの装置にはマイクロフォンとスピーカーが備えられる。処理及び送信待ち
時間を最適化し、また非常に性能の低いクライアントのプラットフォームにもサ
ポートを提供するために、発言の処理はクライアントとサーバ側とで分けられる
【0035】 対話学習用途の状況では、システムは特に、ユーザの質問へ単一の最良回答を
与えるのに用いられる。クライアントの装置でなされる質問は、話者により明瞭
に発音され、ノートブックコンピュータの場合などは内蔵され或いは通常周辺付
属品として提供されるマイクロフォンによって捉えられる。質問が捉えられる、
質問はクライアントの装置に存するNLQSクライアント側ソフトウエアによっ
て部分的に処理される。この部分的処理の出力は一組の音声ベクトルであり、こ
れはユーザ質問の認識を完了するためにインターネットを介してサーバへと運ば
れる。この認識された音声は次にサーバでテキストへと変換される。
【0036】 サーバに置かれた音声認識エンジンによってユーザの質問がデコードされた後
、質問は構造化クエリー言語(SQL)クエリーへと変換される。このクエリー
は次に、予備処理のためにDB処理と呼ばれるサーバ内のソフトウエア処理へ、
及びユーザの質問の名詞句(NP)を抽出するために自然語エンジン(NLE)
モジュールへと同時に与えられる。NLE内での名詞句抽出処理の間に、ユーザ
の質問のトークンにタグが付けられる。タグ付けされたトークンは次に、NPリ
ストが決定可能なようにグループ化される。この情報は記憶され、DB処理プロ
セスへと送られる。
【0037】 DB処理では、ユーザの質問から抽出されたNP及び用途に合った他の環境変
数を用いてSQLクエリーが完全にカスタマイズされる。例えば、訓練用途にお
いては、コース、チャプタ及び又はセクションについてのユーザの選択が環境変
数を構成する。SQLクエリーは、拡張SQL全文述部―CONTAINS、F
REETEXT、NEAR、ANDを用いて構成される。SQLクエリーは次に
、SQLデータベース内の全文サーチエンジンへと送られ、ここで全文検索手続
きが開始される。この検索手続きの結果は回答のレコードセットである。このレ
コードセットはユーザの質問と言語的に類似する記憶質問を含む。これらの記憶
質問のそれぞれが異なるテキストファイルに記憶された対となる回答を有し、こ
のパスがデータベースのテーブルに記憶される。
【0038】 戻された記憶回答のレコードセット全体が次に、アレ(array)の形態でNL
Eエンジンへと戻される。そしてアレの各記憶質問は、連続して一つ一つ言語的
に処理される。この言語的処理が、ユーザの質問への単一の最良回答を決定する
ための二段階アルゴリズムの第二ステップを構成する。この第二ステップは以下
のように進行する:レコードセットに戻された各記憶質問に対して、記憶質問の
NPがユーザ質問のNPと比較される。アレの全ての記憶質問がユーザ質問と比
較された後、ユーザ質問と最大に一致する記憶質問が、ユーザ質問と一致する最
良の記憶質問として選ばれる。最良の記憶質問の決定に用いられる基準は名詞句
の数である。
【0039】 最良記憶質問と対をなす記憶回答がユーザ質問に答えるものとして選ばれる。
そして質問のIDタグがDB処理へと渡される。DB処理はファイルに記憶され
た質問を返す。
【0040】 通信リンクが再び確立され、圧縮形態で回答をクライアントへと送り返す。ク
ライアントにより一旦受け取られた回答は解凍され、テキスト―スピーチエンジ
ンによりユーザへとはっきりと伝えられる。このように本発明は、対話学習シス
テム、インターネット関連商取引サイト、インターネットサーチエンジンなどを
含む多くの様々な用途へと用いることができる。
【0041】 コンピュータを使った教育環境はしばしば、学生からの質問に答えるのに相談
相手あるいは生身の教師の助けを必要とする。この助けはしばしば、指定時間に
質問への回答が得られるよう、事前に決められた特別フォーラム、あるいはチャ
ットセッション又はライブでの電話参加セッションとして設けられるミーティン
グ時間の設置というやり方となる。生徒がいつどこであってもログオンし教育を
受けられるオンライン訓練の即時性及びオンデマンドな又は非同期の性質のため
、質問への回答が適時的且つ費用効果の高い方法でもたらされ、よってユーザ又
は生徒が与えられたものから最大限の利益を得ることができることが重要である
【0042】 本発明はこの問題を解決する。それは通常生身の教師又は相談相手に与えられ
る質問への回答をユーザ又は生徒へと与える。この発明は生徒により尋ねられた
質問に対して単一の最良な回答を与える。生徒は選択肢の中の言語で彼又は彼女
自身の声で質問を発する。分散型音声認識、全文検索データベース処理、自然語
処理、テキスト―スピーチ技術を含む多くの技術を用いて、音声は認識され、質
問への回答が見出される。回答は、生身の教師の場合同様、相談相手又は教師を
真似たエージェントにより明瞭な発音で、そして選択された言語―英語、仏語、
独語、日本語、あるいは他の自然口語で、ユーザへと与えられる。ユーザは、キ
ャラクタの声の高さ、大きさ、早さなどの幾つかの音声パラメータと同じく、エ
ージェントの性別を選ぶことができる。
【0043】 NLQSから利益を受ける他の用途は、電子商取引用途である。この用途にお
いては、書籍やコンパクトディスクの価格について、あるいは購入されるアイテ
ムの入手可能性についてのユーザ質問が、連続するウエブページの様々なリスト
を経由して選ぶ必要なしに検索できる。代わりに、余計なユーザ入力なしに、回
答はユーザへと直接もたらされる。
【0044】 同様に、このシステムは、照会頻度の高い質問(FAQs)へ回答をもたらす
ことに、及び電子サポートのための診断サービスツールとして使用可能であると
考えられる。これらの質問は所定のウエブサイトにはよくあるもので、ユーザが
支払い手続き、あるいは製品/サービスの仕様や蒙った問題に関連する情報を見
つけるのを助けるために提供される。こうした用途の全てに、NLQSアーキテ
クチャは適用可能である。
【0045】 これらのアーキテクチャと関連する多数の独創的方法もまた、様々なインター
ネット関連用途で有益に用いられる。
【0046】 本発明は以下に好ましい実施の形態の群において説明されるが、迅速且つ正確
な音声認識を実行することが必要で、及び/又は知的システムへ人間的な対話能
力を与えることが必要な多くの環境下で本発明が有益に用いられ得ることは当業
者にとって明らかであろう。
【0047】
【発明の実施の態様】
概要 上記のように、本発明は、ユーザがクライアントコンピュータシステム(単純
な個人用携帯情報端末、携帯電話、洗練されたハイエンドのデスクトップPC等
)により英語、仏語、独語、スペイン語又は日本語等の自然語により質問の提起
及び彼又は彼女の母国語の自然語により遠隔サーバより適切な回答を受け取るこ
とを可能とする。従って、図1に示す発明の実施例は、電子商取引、電子サポー
ト及び電子学習の用途のために人間的な対話能力/経験を与えるためにリアルタ
イムに対話するように構成された自然語質問システム(NLQS)100の概要
を説明するために有利に用いられる。
【0048】 NLQS100の処理の概要を、クライアント側システム150,データリン
ク160及びサーバ側システム180にわたって説明する。これらの構成要素は
、従来より知られており、好適実施例においては、パーソナルコンピュータシス
テム150と、インターネット接続160A、160B及び大規模コンピュータ
システム180を有している。これらが例示的な構成要素であるとともに、本発
明はこうしたシステムの特定の実施又は組み合わせにより決して制限させるもの
ではないことは、当業者に理解されることである。例えば、クライアント側シス
テム150はコンピュータの周辺機器や、PDAや、携帯電話の一部、インター
ネット対応機器の一部、インターネットにリンクされた公衆電話等として実施す
ることも可能である。同様に、インターネット接続はデータリンク160Aとし
て示されているが、ワイヤレスリンク、RFリンク、IRリンク、LAN等のク
ライアントシステム150とサーバシステム間のデータ転送に適した経路で十分
である。最後に、サーバシステム180は、単一の大規模コンピュータシステム
とするか、若しくは多数の予測されるネットワークユーザをサポートする連結さ
れたより小規模なシステム群とすることが出来る。
【0049】 まず、音声入力は、発声として、クライアントの装置や個人用補助装置(perso
nal accessory)において話者により明瞭に表現された質問や問い合わせの形で与
えられる。この発言は、捕捉され、クライアントマシンに存在するNLQSのク
ライアント側ソフトウエア155によって部分的に処理される。対話の人間的な
態様を容易とし、向上させるために、質問は、個人的情報検索エージェントとし
てユーザを補助するユーザが見ることが出来る動画のキャラクタ157の存在下
で提起される。エージェントはまたモニタ/ディスプレイ(図示せず)上の目で
見ることが出来るテキスト出力及び/又はテキスト―スピーチエンジン159を
用い可聴形式によりユーザと対話することが可能である。SRE155によって
おこなわれる部分的処理の出力は、音声ベクトル組であり、インターネット又は
上述のようにインターネットにリンクされたワイヤレスゲートウエイを介してユ
ーザの装置又は個人用補助装置をサーバ又は複数のサーバにリンクさせる通信チ
ャンネル160を通じて送信される。サーバ180において、部分的に処理され
た音声信号データは、サーバ側SRE182によって取り扱われ、ユーザの質問
に対応する認識された音声テキストが出力される。テキストに関連したユーザの
質問に基づいて、テキスト−質問変換器184が、データベース処理装置186
の入力として用いられる適当な質問を形成する。質問に基づいて、データベース
処理装置186は、次いで、データベース188からカスタマイズされたSQL
質問を用いて適切な回答を探し、検索する。自然語エンジン190は、データベ
ース188に対する質問の構成を容易とする。ユーザの質問にマシンが回答した
後、前者がデータリンク160Bを介してテキストを送信し、データリンクにお
いてテキスト−スピーチエンジン159によって音声に変換して、動画キャラク
タのエージェント157によって口語フィードバックとして表現される。
【0050】 音声処理はこの要領で分解されるので、大きな、制御可能な質問/回答の組を
構成するリアルタイムで、対話型の人間的な問答を構成することが出来る。動画
のエージェント157の補助により経験が向上され、初心者のユーザにとって自
然で心地よいものとする。音声認識処理をより信頼性の高いものとするために、
前後関係を特定した文法及び辞書が、自然語処理ルーチンとともに、ユーザの質
問の語彙の分析にNLE190において使用される。音声データの前後関係を特
定した処理は、従来より知られているが(本明細書の開示の一部として援用する
アメリカ特許第5、960,394号、5,867,817号、第5,758,
322号及び第5,384,892号を参照)、発明者等は、本発明により実施
されているような実施例を知らない。ユーザの質問のテキストは、BD処理装置
/エンジン(DBE186によりユーザにより提起された質問を識別するために
他の質問のテキストと比較される。SRエンジン155及び182の対話及び関
係、NPLルーチン190、辞書及び文法を最適化することによって、非常に高
速で正確な一致を得ることが出来、独特で応答性の高い回答をユーザに提供する
ことが出来る。
【0051】 サーバ側180において、交互的な処理が、音声認識処理をさらに加速する。
単純化された用語により、質問がNLE190に与えられ、質問が形成された後
にDBE186に与えられる。NLE190とSRE182は、全認識工程にお
いて相補的な機能を行う。一般に、SRE182は、主にユーザによって表現さ
れたワードの独自性を決定し、一方、NLE190は、ユーザの質問とデータベ
ース問い合わせの後に戻されるサーチ結果に双方の言語形態学上の分析を行う。
【0052】 ユーザの質問がNLE190によって分析された後に、いくつかのパラメータ
が抽出され、DB処理に送られる。付加的な統計は処理の第二のステップのため
の配列に格納される。二段階アルゴリズムの第二のステップの間、レコードセッ
トの一次サーチの結果は、NLE160の処理のために送出される。この第二の
ステップの終わりに、ユーザの質問と一致する単一の質問は、単一の格納された
質問の対をなす回答を得るための処理を行うBD処理に送出される。
【0053】 従って、本発明は自然語処理(NLP)を形成するために使用され、音声基調
のウエブアプリケーションシステムにおいて最適性能を達成する。NLPは従来
より公知であるが、自然語処理(NLP)作業における従来の試みはともかく音
声認識(SR)技術と良好に結合されておらず、ウエブ基調のアプリケーション
環境において合理的な結果を達成する。音声認識において、結果は一般にそれぞ
れ音声認識装置に適合するある程度の蓋然性を持つ見込まれる認識されたワード
の格子である。前述のように、一般的NLPシステムに対する入力は、主として
大きな言葉の単位である。NLPシステムは大きな言葉の単位又は書き写された
発言の組を解釈し、理解し、索引付けする作業を行う。このNLP処理の結果は
、ワード認識に対向して、言葉の単位全体を言語学的または形態学的に理解する
。他の方法において、SREにより言語単位又は連結された単語のセンテンス出
力は、「認識」されたものと対向するものとして言語学的に理解される。
【0054】 前述のように、音声認識技術はここ数年使用可能となっているが、NLQSの
発明に対する技術的要求は、十分に機能するように音声認識と自然語処理を組み
合わせる用途において必要とされる音声認識精度を得るための仕様に関して非常
に厳しい制限を設けている。この実現において、最良の状態においても所要の完
全に100%の音声認識精度を達成することは不可能であり、本発明は、質問中
の各ワードにおいて完全な音声認識を達成することが不可能な場合にも、ともか
く質問全体自体の認識は十分な精度が得られるように、音声認識処理の予測され
るリスクと自然語処理の要求をバランスさせるアルゴリズムを採用する。
【0055】 この認識精度は、音声による質問に応答するため及び予測される100乃至2
5の質問に対して3乃至5秒の短い待ち時間(理想的には、変動する送信待ち時
間を無視して)という厳しいユーザの制約にさえも合致することができる。この
短い応答時間は、全体的な印象として、ユーザの見地からより自然で、好ましい
リアルタイムの対話の経験を与える。勿論、例えば翻訳サービスのような、非リ
アルタイムの用途においても、HMM、文法、辞書等が集約して保持されるので
、この技術は有利である。
【0056】 本発明において使用される音声認識の概要 音声認識の一般的な背景技術情報は、上記の、開示の一部として援用した参考
文献において見ることが出来る。にも拘わらず、NLQS100に適合した音声
認識構造及び技術の具体例について、本発明の特性、質及び特徴のいくつかをよ
り良く示すために説明する。
【0057】 音声認識技術は、一般に二つのタイプ−話者非依存タイプ及び話者依存タイプ
である。話者依存タイプの音声認識技術において、各ユーザは、認識される可能
性のあるワードのサンプルを記憶したボイスファイルを有している。話者依存音
声認識システムは、一般に、ディクテーションやテキスト書き写しの用途に適し
たものとするために大きな語彙及び辞書を有している。さらに、話者依存タイプ
のシステムに関してメモリ及びプロセッサのリソースは通常大きく、集約的とな
る可能性があり、また一般的である。
【0058】 逆に、非話者依存タイプの音声認識技術は、単一の語彙ファイルの多くのユー
ザのグループによる使用を可能とする。達成される精度は、与えられた言語に関
してサポート可能な文法及び辞書の大きさ及び複雑さによって変化する。NLQ
Sに使用する場合、小さい文法及び辞書の使用によりNLQSにおいて非話者依
存タイプの音声認識技術の実施が可能となる。
【0059】 非話者依存タイプ及び話者依存タイプのいずれのタイプにおいても重要な問題
又は要求される事項は、精度と速度である。ユーザ辞書のサイズが大きくなるに
従って、音声認識精度は上昇し、誤認識率(WER)及び速度は低下する。これ
は、サーチ時間が増加し、辞書のサイズの増加に伴って発音の一致が複雑となる
ためである。
【0060】 NLQS音声認識システムの基本は、一連のヒドンマルコフモデル(HMM)
であり、これは前述のように経時的に変化する信号を特徴付ける数学的モデルで
ある。音声の一部は、一乃至複数のシンボルの潜在的列に基づいているので、各
シンボルに対応するHMMモデルは音声波形からのベクトルとして学習される。
ヒドンマルコフモデルは、状態の有限集合であり、そのそれぞれは(通常多次元
の)確率分布に関連付けられている。状態間の遷移は、遷移確率と呼ばれる確率
の組によって支配される。特定の状態において、結果又は所見が、関連付けられ
た確率分布に従って発生される。この有限集合装置は、各時間単位ごとに状態を
変化させ、状態jに入る時点tにおいてスペクトルパラメータベクトルOtが、
確率密度Bj(Ot)で発生させる。これが唯一の結果であり、外部の観察者に状
態が見えないので、状態は結果に「隠されている」のでヒドンマルコフモデルと
名付けられた。
【0061】 孤立した音声認識において、各ワードに対応する一連の発言された音声ベクト
ルは、以下のマルコフモデルによって表現される。 O=o1, o2, .........oT (1−1) ここで、otは時点tにおいて発言される音声ベクトルである。孤立したワー
ド認識は以下のように算定する。 arg max [P(w1|O)] (1−2) ベイズの定理を用いることにより、 [P(w1|O)] = [P(O|w1)P(w1)]/P(O) (1−3)
【0062】 一般的な場合、音声に適用された場合、マルコフモデルも有限状態装置を前提
とし、各時間帯ごとに状態を変化させ、状態jに入る各時点において、音声ベク
トルotが、確率密度bj(ot)から発生する。さらに、状態iから状態jへの
遷移も確率的であり、離散確率aijによって支配される。
【0063】 状態シーケンスXに関して、状態シーケンスXを通して移動するモデルMによ
ってOが発生される複合確率は、遷移確率と出力確率の積である。発言シーケン
スのみが知られている場合、状態シーケンスは前述のように隠される。
【0064】 Xが知られているとすると、所要の尤度は、全ての予測される状態シーケンス
X=x(1),x(2),x(3),....x(T)の加算により計算される
。 P(O|M)=Σ[ax(0)x(1)?b(x)(ot)ax(t)x(t+1)] ワードw1に対応するモデルの組がMiであるとすると、式1−2は式1−3を
用いまた P(O|wi) =P(O|Mi) と仮定することによって解かれる。
【0065】 これらの全ては、パラメータ(aij)及び{bj(ot)}は、それぞれのモデ
ムMiについて知られていることを前提としている。これは、前述のように、特
定のモデルに対応する学習用例題を用いて行われる。その後に、モデルのパラメ
ータは、頑丈で、効率的な再予測手順によって自動的に決定される。そのため、
十分な数の各ワードの代表的な例が収集されると、HMMを構成することが出来
、現実の音声における不可避の変化の多数の原因の全てを単にモデル化したもの
である。このトレーニングは従来より周知であるので、詳細な説明は省略するが
、HMMはクライアント側ではなくサーバ側において導き出され、構成されるの
で、本発明の分散アーキテクチャによりHMMの品質が向上する。このようにし
て、異なる地図上の地域のユーザからの適切なサンプルを簡単にコンパイル及び
分析して認識すべき特定の言語において生じる可能性のある変化を最適化するこ
とが出来る。各予測されるユーザは認識処理中にHMMの同一の組を使用するの
で、音声認識処理の均一性は良好に保持され、エラー診断を簡素化する。
【0066】 トレーニングサンプルの組からHMMのパラメータを決定するために、第一ス
テップは、それらが何であるかの大まかな推測を行う。次いで、ボーム−ウェル
シュ推定式(Baum-Welch estimation formula)を用いて精緻化が行われる。これ
らの式により、最大尤度μj(μjは平均ベクトル及びΣjは分散行列)は、 μjT t=1Lj(t)ot/[ΣT t=1Lj(t)ot]
【0067】 次ぎに、前方−後方アルゴリズム(forward-backward algorithum)が用いられ
、状態占有確率Lj(t)が計算される。状態NのあるモデルMに関する前方確率αj (t)は、 αj(t) = P(o1,......, otx(t) = j|M) で表される。この確率は、帰納法を用いて計算することが出来る。 αj(t) = [ΣN-1 j=2α(t-1)aij]bj(ot) 同様に、後方確率は、帰納法を用いて計算することが出来る。 βj(t) = [ΣN-1 j=2 aijbj(ot+1)(t+1) 前方確率は複合確率であり、後方確率は条件的確率であることを実現すること
によって、状態占有の確率は二つの確率の積となる。 αj(t)βj(t) = P(O. x(t) = j|M) それゆえに、時点tにおける状態jの確率は、 L(t) = 1/P[αj(t)βj(t)] ここで、P=P(O|M)
【0068】 連続音声認識のために上記を一般化するために、総和が最大動作により置き換
えられる最大尤度状態シーケンスを前提とする。従って、与えられたモデルMに
関して、φj(t)が時点tにおける状態jにおいて使用される発言する音声ベ
クトルo1乃至otの最大尤度を示していると仮定すると、 φj(t)= max [φj(t)(t-1)αijj(ot) アンダーフローを回避するためにlog表現を用いれば、最大尤度は ψj(t) = max [ψi(t-1) + log(αij)] + log(bj(ot))
【0069】 これはまた、ビタビアルゴリズムとして知られている。垂直方向の寸法がHM
Mの状態を示し、水平方向が音声フレーム、即ち時間を示すマトリクスを通る最
適パスを検索することにより可視化される。連結された音声認識への拡張を完成
するために、さらに潜在的なシーケンスを示す各HMMが連結されるものと仮定
する。従って、連続音声認識のためのトレーニングデータは、連結された発声で
構成されるが、ワード間の境界を知られる必要はない。
【0070】 演算速度/効率を改善するために、ビタビアルゴリズムは、時々、トークンパ
ッシングモデル(Token Passing Model)として知られるモデルを用いて収束を達
成する。トークンパッシングモデルは、発言シーケンスo1乃至otと特定のモデ
ル間の部分一致を示し、時点tにおける状態jモデルである制約をうける。この
トークンパッシングモデルは、HMMのシーケンス有限状態ネットワークとして
規定することを可能とするとすれば、容易に連結音声認識に拡張することが出来
る。音素に基づくHMMと完全なワードを含む複合ネットワークは、確率格子か
らN個の最良の抽出ワードを用いて連結音声を形成するために単一の最良のワー
ドを認識出来るように構成される。この複合型のHMMに基づく連結音声認識装
置は、NLQS音声認識装置モジュールの基礎となる。ともかく、本発明は、特
別の形式の音声認識装置に限定されるものではなく、本発明のアーキテクチャと
互換性があり、ユーザにリアルタイムに対話の経験を提供するための精度及び速
度の所要の能力基準を満足する限りにおいて音声認識のための他の技術をも採用
することが出来る。
【0071】 本発明によるHMMに基づく音声認識システムに関する音声の表現は、音声は
本質的に(発声された音声の)準周期的パルス列と(発声されない音声の)ラン
ダムノイズ源の何れかである。これらは、二つの音声源としてモデル化され、一
方はピッチ周期Pのインパルス列発生器と、発声/非発声スイッチにより制御可
能なランダムノイズ発生器としてモデル化される。スイッチの出力は、音声信号
から予測されるゲイン関数に供給され、生成される音声の声道パラメータ特性に
より制御されるデジタルフィルタH(z)に供給するように拡大される。発声/
非発声の切り換え、発声音のピッチ周期、音声信号に関するゲインパラメータ及
びデジタルフィルタの係数等のこのモデルに対する全てのパラメータ−は、時間
の経過に応じてゆっくり変化する。HMMの組の観点において評価を可能とする
ようにユーザの音声入力からの音響パラメータの抽出において、ケプストラム分
析は一般に、振動情報から声道情報を分離するために使用される。信号のケプス
トラムは、logスペクトルのフーリエ(又はこれと同様の)変換を採用するこ
とによって計算される。ケプストラム係数を抽出することの主要な利点は、それ
らが非相関化され、対角線の共分散をHMMとともに使用することが可能となる
。人間の耳は音声スペクトルにわたって周波数の非線形性を解消するので、同様
に非線形に動作するフロントエンドが音声認識性能を改善することを示している
【0072】 従って、一般的線形予測に基づく分析によらず、NLQS音声認識エンジンの
フロントエンドは、メルスケール(Mel-scale)においてほぼ等しい加増度を与え
るように設計されたフィルタバンクに基づいて単純な高速フーリエ変換を行う。
このフィルタバンクを実施するために、(特定の時間フレームに関する)音声デ
ータのウインドウはソフトウエアによるフーリエ変換及び取りうる大きさを用い
て変換される。各FFTの大きさは、対応するフィルタの利得と乗算され、その
結果が蓄積される。フロントエンドによるこのフィルタバンク分析から得られる
ケプストラム係数は、logフィルタバンクの振幅の離散コサイン変換を用いる
ことによって音声信号の第一の部分的な処理段階において計算される。これらの
ケプストラム係数は、メル周波数ケプストラム係数(Mel-Frequency Cepstral Co
eficient(MFCC))と呼ばれ、ユーザに音声信号の音響特性を特徴付けるためにク
ライアント側から送られてくる音声パラメータのいくつかを示している。これら
のパラメータは、異なる性能を持つシステム(即ち、性能の低いPDAから性能
の高いデスクトップまでの全てに関しての)において迅速、且つ普遍的に決定さ
れる事実を含む種々の理由により選択され、操作に関連した多数の有用な認識の
ために適合し、比較的狭い帯域のリンクを介して迅速に送出されるように比較的
小さく、コンパクトである。従って、これらのパラメータは、後続のサーバ側に
おいて十分に且つ迅速に認識処理が完結できるように使用できるように、最小量
の情報を示す。
【0073】 音声パラメータを増強するために、信号エネルギのロガリズムの形式における
エネルギ条件が付加される。従って、RMSエネルギは12MFCCに付加され
て、13の係数を生成する。これらの係数は、ユーザのクライアントシステムか
ら遠隔サーバに圧縮状態で昇進される部分的に処理された音声データを生成する
【0074】 本音声認識システムの性能は、サーバ側において時間導関数を計算し、基本的
静的MFCCパラメータに加算することによって大幅に強化される。これら二つ
の他の組の関数−(実際にいくつかのフレームにわたって測定された)フレーム
からフレームまでの13の値における変化を示すデルタ及び加速係数は、音声信
号の初期の処理を完了するための第二の部分的音声信号処理段階中に計算され、
後者が受け取られた後に係数の元の組に加算される。これらのMFCCは、デル
タ及び加速係数とともに、上記した発言ベクトルOtを構成し、音声データの関
する適切なHMMの決定に用いられる。
【0075】 デルタ及び加速係数は、以下の帰納式を用いて計算される。 dt = Σθθ=1[ct+θ - ct-θ]/2Σθθ=1θ2 ここで、dtは対応する静的係数に関して計算された時間tのデルタ係数であ
る。 dt = [ct+θ - ct-θ]/2θ
【0076】 音声認識システムの一般的な独立的な実施において、SRエンジンの全体が単
一のクライアントにより実行される。換言すれば、上記の第一及び第二の部分的
処理段階は、クライアントのコンピュータにおいてROM又はソフトウエアコー
ドのルーチンにより動作するDSP(又はマイクロプロセッサ)によって実行さ
れる。
【0077】 逆に、いくつかの理由、特にコスト、技術的性能及びクライアントのハードウ
エアの均一性の理由から、本NLQSシステムは、分割または分散された方法を
採用する。ある種の処理はクライアント側において行われるが、主要な音声認識
エンジンは、集約的配置されたサーバ又は多数のサーバ上で動作する。より具体
的には、上述のように、音声信号の捕捉、MFCCベクトルの抽出及び圧縮は、
第一の部分処理段階においてクライアントマシンにより実行される。ルーチンは
、而して合理化されて、ブラウザプログラム(例えば、プラグインモジュール、
ダウンロード可能なアプレットとしても)実行するために十分に簡素化され、使
用及び利用を最大に容易化する。従って、非常に性能の低いクライアントのプラ
ットフォームをもサポートすることが出来、予測される多数のサイトにおける本
システムの使用を可能とする。一次MFCCは、次いでダイアルアップによるイ
ンターネット接続、LAN接続、ワイヤレス接続等のチャンネルを介してサーバ
に送られる。伸張後に、デルタ及び加速係数がサーバにおいて計算されて、初期
の音声処理段階を完了し、結果として得られる発言ベクトルOtが決定される。
【0078】 音声認識エンジンの概要 音声認識エンジンもサーバに配置され、ワードレベルネットワーク、辞書及び
HMMの組からコンパイルされるHTKに基づく認識ネットワークに基づいてい
る。認識ネットワークは、アークにより接続されたノードの組により構成される
。各ノードは、HMMモデル又はワードエンドである。各モデルのノードは、そ
れ自体アークによって接続された状態で構成される。而して、コンパイルが完了
すると、音声認識ネットワークは、遷移により連結されたHMM状態で構成され
る。Tフレームの既知でない発言入力に関して、ネットワークの入口ノードから
出口ノードへの全てのパスはTHMM状態を通る。これらのパスのそれぞれは、
各パス内の個別の遷移のlog確率及び対応する発言を発生する放出状態のlo
g確率を加算することにより計算される。ビタビデコーダの機能は、最も高いl
og確率を持つパスをネットワーク上で見つけることである。この検出には、ト
ークンパッシングアルゴリズムが用いられる。多数のノードを持つネットワーク
において、勝者となり得るこれらのトークンの伝搬を許容するのみによって、計
算時間が減少する。この処理は一括消去と呼ばれる。
【0079】 自然語処理装置 一般的なデータベースに自然語インターフェースにおいて、ユーザは、例えば
英語等の彼/彼女の自然語により質問を入力する。システムは、これを解釈し、
問い合わせ言語表現に翻訳する。次いで、システムは、問い合わせ言語表現を用
いて質問を処理し、サーチに成功すれば、結果を示すレコードセットは、生のテ
キスト又は画像形式の何れかにフォーマットされて英語で表示される。優れて動
作する自然語インターフェースは多くの技術的要求事項を含んでいる。
【0080】 例えば、これは頑丈で無ければならず、「デパートの売り上げは(what's the
department turnover)」のセンテンスにおいて、ワードwhats=what's=what isを
決定する。また、departments = department'sを判定しなければならない。頑丈
であることに加えて、自然語インターフェースは、言語学的、構造的、参照及び
省略による曖昧さ等の自然語におけるいくつかの形式の曖昧さを識別する必要が
ある。これらの要求の全ては、トークン化、タグ付け、グループ化の基本的言語
形態学的動作を行う一般的な能力に加えて、本発明により実施される。
【0081】 トークン化は、テキストを個別の文字よりも大きいが句やセンテンスよりも小
さい一連のトークン又は利用可能な有意な単位として扱うテキスト分析器により
行われる。これらは、ワード、ワードの分離可能な部分及び句読点を含んでいる
。各トークンはオフセットや長さに関連付けられる。トークン化の第一段階は、
入力されたテキストから個別のトークンを抽出するセグメント化処理であり、入
力されたテキスト内に由来する各トークンのオフセットを記録する。トークン化
装置の出力は、各トークンのオフセット及びカテゴリをリストする。テキスト分
析の次の段階において、タグ付け装置は、内蔵する形態分析器を用いて句、セン
テンス中の各ワード/トークンのルックアップを行い、音声の全ての部分を内部
的にリストする。出力は、音声記録に部分にタグを付した各トークンによる入力
列である。最後に、句抽出装置又は句分析装置として帰納するグループ化装置は
、句を形成するワードのグループを決定する。全ての近代的言語処理体系の基本
であるこれら三つの動作は、ユーザの質問に対する単一の最良の回答を決定する
ための最適化されたアルゴリズムを全て実施する。
【0082】 SQLデータベース及び全文問い合わせ 本システムの他の重要な構成要素は、SQLデータベースである。このデータ
ベースは、テキストを記憶するために用いられ、特に回答−質問の対がデータベ
ースの全文テーブルに格納される。さらに、データベースの全文検索能力が、全
文検索の実行を可能とする。
【0083】 デジタル的に記憶された全ての情報は、非構造のデータ、一次テキストの形式
であるが、ヴァーチャー(varchar)やテキスト等の文字に基づく欄による公知の
データベースにこの原文データの格納が可能となる。データベースから原文デー
タを効果的に検索するために、技術は、原文データに対する質問の発生及びNL
SQシステムの場合のように回答を与える有意な方法で回答の検索を実行する必
要がある。
【0084】 二つの主要なタイプの原文サーチがある。特性(Property)−このサーチ技術
は、最初に文書をフィルタにかけて著者、主題、タイプ、ワード数、印刷ページ
数、最後に書かれた日付等の特性を抽出し、次いで、これらの特性に対してサー
チを行う。全文−このサーチ技術は、まず文書中のノイズでないワードのインデ
ックスを作成し、このインデックスにより次いで言語のサーチ及び近接サーチを
サポートする。
【0085】 この特定のRDBMにおいて二つの付加的技術が実施される。SQLサーバは
一体化される。サーチサービス−、インデックスエンジン及びサーチと呼ばれ全
文のインデックス付け及びサーチサービス及び全文SQL拡張及びマップを受け
入れる構文解析ツールはサーチエンジンによる処理を可能な形式とする。
【0086】 全文能力を持つデータベース(full-text-capable database)からのプレーンテ
キストの全文検索の実施において四つの主要な態様含んでいる。全文検索のため
に登録されたテーブル及び欄の定義の管理と;登録された欄内のデータのインデ
ックス付け−インデックス付け処理は文字列を走査し、ワードの境界(これは単
語分け(word breaking)と呼ばれる)を決定し、全てのノイズとなるワードを排
除し(これはストップワード(stop words)と呼ばれる)、残りのワードに全文
インデックスを与える;占有する全文インデックスに関する登録された欄に対し
て質問を発生する;全文インデックスの同期を保持するために登録された欄のデ
ータにその後に生じた変化がインデックスエンジンに伝搬することを確保する。
【0087】 インデックス付け、問い合わせ及び同期処理のための潜在的な設計原理は、全
文検索のために登録された全てのテーブルに全文ユニークキー欄(又は単一欄基
本キー)が存在していることである。全文インデックスはノイズでないワードに
対するエントリを各行のキー欄の値とともに各行に有している。
【0088】 全文検索を処理する場合、サーチエンジンはサーチ基準に一致する行のキーの
値をデータベースに返す。
【0089】 全文管理処理は、全文検索のための関連したテーブル及びその欄を指定するこ
とによって開始される。カスタマイズされたNLQSの格納された手順は、まず
全検索に都合の良いテーブル及び欄を登録するために使用される。その後に、格
納された手順による別の要求が発生され、全文インデックスを格納する。この結
果、潜在的インデックスエンジンが呼び出され、非同期インデックスの格納が開
始される。全文インデックス付けはいずれの有意なワードが使用されたか及びそ
れらがどこに位置するかを検索する。例えば、全文インデックスは、「NLQS
」のワードが、ProductID6に関連した行のDevToolsテーブル
のAbstract欄のワード番号423とワード番号982に見られる。この
インデックス構造は、インデックスされた語を含む全てのアイテムの効率的検索
をサポートするとともに、句検索や近接サーチといった上級のサーチもサポート
する。(句検索の例は、「白象(white elephant)」を検索するものであり、「白
(white)の後に「象」が続く、近接サーチの例は,「大きい(big)」及び「家(hous
e)」を検索するものであり、「大きい」が「家」に近接して生じる。)全文イン
デックスが膨大になることを防止するために、”a”、”and”、”the”
等は無視される。
【0090】 トランズアクト−SQL語への拡張は、全文問い合わせを構成するために使用
される。NLQSにおいて使用される二つのキーとなる述語は、CONTAIN
SとFREETEXTである。
【0091】 CONTAIN述語は全文の登録欄における値が幾つかのワード及び句を含ん
でいるか否を決定するために使用される。特に、この述語は、 ・ワード又は句 ・ワード又は句の接頭語 ・近接するワード又は句 ・他の語の屈折形であるワード(例えば、"drive"は"drives", "drove", "drivi
ng"及び"driven"の基本形である。) ・それぞれに異なる重みを割り当てられたワード又は句の組 の検索に用いられる。
【0092】 SQLサーバのリレーショナルエンジンは、CONTAIN及びFREETE
XT述語を認識し、述語中に参照されている欄が全文検索のために登録されてい
ることの確認等の最小の構文及び意味のチェックを行う。問い合わせの実行中に
、全文の述語及び他の関連した情報が全文検索部に送られる。さらに構文及び意
味の確認後に、サーチエンジンが起動され、全文検索条件を満足するテーブル中
の行を特定する独自のキー値を返す。さらに、FREETEXTとCONTAI
NSに対して、AND、LIKE、NEAR等の他の述語が組み合わされて、カ
スタマイズされたNLQSのSQL構造を生成する。
【0093】 SQLデータベースの全文問い合わせのアーキテクチャ 全文問い合わせのアーキテクチャは、以下のいくつかの構成要素によって構成
される−全文クエリー部、SQLサーバリレーショナルエンジン、全文プロバイ
ダ及びサーチエンジンである。
【0094】 SQLデータベースの全文クエリー部は、SQLサーバからの全文述語又はロ
ーセット値関数(rowset-valued function)を受け付け、述語の一部を内部フォー
マットに変換し、これをローセットの一致を返すサーチサービスに送る。ローセ
ットは、次いでSQLサーバに送り返される。SQLサーバはこの情報を用いて
結果セットを生成し、これをクエリーの送信者に返す。
【0095】 SQLサーバリレーショナルエンジンは、CONTAINS及びFREETE
XT述語とともにCONTAINSTABLE()及びFREETEXTTBL
E()ローセット値関数を受け入れる。解析期間中に、このコードが、全文検索
のために登録されていない欄に問い合わせをしている等の状態をチェックする。
有効であれば、ランタイムに、前方検索条件(ft#search#condition)及び文脈情
報は、全文プロバイダに送出される。結局のところ、全文プロバイダは、ローセ
ットをSQLサーバに返し、元の問い合わせに対する結合(特定された又は暗示
された)に使用される。全文プロバイダは、前方検索条件を解釈し、確認し、全
文検索条件の適当な内部表現を構成して、サーチエンジンに送出する。結果は、
前方検索条件を満足する行のローセットによってリレーショナルエンジンに戻さ
れる。
【0096】 クライアント側システム150 自然語問い合わせシステム100のクライアント側システム150のアーキテ
クチャは、図2により詳細に示されている。図2に関して、クライアント側シス
テム150により達成される三つの主要な処理を以下に示す。SRE201、通
信202及びMSエージェント203ルーチンで構成される初期化処理200A
と;a)SRE204と通信205で構成されるユーザ音声の受信208とb)
サーバから回答を受信207及びアンイニシャライゼーション(un−initializat
ion)処理の二つのサブルーチンで構成される反復処理200Bである。最後に、
アンイニシャライゼーション処理200Cは、SRE212,通信213及びM
Sエージェント214の三つのサブルーチンで構成される。上記の三つの処理の
それぞれは、以下のパラグラフにおいて詳細に説明する。こうした処理及びルー
チンの実行は、クライアントプラットフォーム毎に変化し、ある環境においては
、こうした処理は専用DSPにより実行されるハードコード化(hard-coded)ルー
チンによって実施可能であるが、共用のホストプロセッサによって実行されるソ
フトウエアとして実施することも可能であり、また両者の組み合わせを用いるこ
とも出来ることは当業者に理解されるであろう。
【0097】 クライアントシステム150における初期化 クライアント側システム150の初期化は図2−2に示されており、一般に、
クライアント側音声認識エンジン220A、MSエージェント220B及び通信
処理220Cの三つの別の初期化処理により構成される。
【0098】 音声認識エンジン220Aの初期化 音声認識エンジン155は、220Aで示されたルーチンを用いて初期、構成
される。最初に、SRECOMライブラリが初期化される。次いで、メモリ22
0はソースを保持するように割り当てられ、コーダオブジェクトがルーチン22
1により生成される。コンフィギュレーションデータファイル221Bからのコ
ンフィギュレーションファイル221AのロードもSREライブラリの初期化と
同時に行われる。コンフィギュレーションファイル221Bにおいて、コーダへ
の入力のタイプ及びコーダの出力のタイプが宣言される。こうしたルーチン及び
動作等は周知であり、それらは多数の相当に簡単な方法を用いて実行される。従
って、それらについてはここでは詳述しない。次に、発言の音声及び無音成分は
、ルーチン222を用いて周知の手順により目盛り付けされる。音声及び無音成
分を目盛り付けするために、ユーザは好ましくは文を発言し、表示画面のテキス
トボックスに表示される。SREライブラリは、将来のユーザの発言の無音及び
音声成分を検出するために必要となるノイズ及び他のパラメータを予測する。
【0099】 MSエージェント220Bの初期化 MSエージェント220Bの初期化及びセットアップに用いられるソフトウエ
アコードは、図2−2に示されている。MSエージェント220Bルーチンは、
動画エージェント157(図1)の動作を調整し、取り扱うことを受け持つ。こ
の初期化は、以下のステップにより構成される。 1.COMライブラリ223を初期化する。この部分のコードは、周知の制御を
行うアクティブX制御を使用するために必要となるCOMライブラリの初期化を
行う。 2.エージェントサーバ224のインスタンスの生成−この部分のコードは、エ
ージェントアクティブX制御のインスタンスを生成する。 3.MSエージェント225のロード−全貌、形状、サイズ等のようなエージェ
ントの特性に関する一般的パラメータデータを含む特定されたファイル225A
からのMSエージェント特性をロードする。 4.キャラクタインターフェース226の獲得−この部分のコードは特定された
キャラクタに関する適当なインターフェースを獲得する:キャラクタは、ユーザ
に提供できる異なる制御/対話能力を有している。 5.エージェントキャラクタオプション227にコマンドを追加する−この部分
のコードは、エージェントキャラクタがロードされる時に、システムトレイのア
イコンをクリックすることによってアクセス可能なエージェントのプロパティシ
ートにコマンドを付加する。例えば、キャラクタは話すことが出来、どのように
彼/彼女が動くか、TTSのプロパティ等 6.エージェントキャラクタを表示228−この部分のコードは、ユーザによっ
て見ることが出来るように、エージェントキャラクタを表示する。 7.AgentNofifySink−イベントを取り扱うために。この部分のコードは、Agent
NotifySinkオブジェクト229を生成し、それを230に登録し、エージェント
プロパティインターフェース231を獲得する。エージェントキャラクタに関す
るプロパティシートは使用するルーチン232に割り当てられる。 8.キャラクタのアニメーションを行う233−この部分のコードはユーザのN
LQS100に迎えるために特定のキャラクタにアニメーションを行わせる。
【0100】 上記によりMSエージェントを初期化するために必要となるシーケンス全体を
構成する。SREルーチンと同様に、MSエージェントルーチンは、本技術に基
づいて、いかなる適当な公知の手法により当業者が実施可能である。こうしたル
ーチンの特定の構造、動作は重要ではないので、それらについては詳細に説明し
ない。
【0101】 好適実施例において、MSエージェントは特定の用途に関して適当な外観及び
納涼を備えるように構成される。例えば、遠隔学習への使用の場合、エージェン
トは、大学教授の外観やの癖、態度、ジェスチャー有している。他の視覚的小道
具(黒板、教科書等)がエージェントが使用することが出来、ユーザに実際の教
育環境に居たときの経験を思い起こさせる。エージェントの特徴はクライアント
側150で構成され及び/又は特定のウエブページからのコンフィギュレーショ
ンデータ及びコマンドに応じてブラウザプログラム(図示せず)によって実行さ
れるコードの一部により構成される。例えば、医療を提供している特定のウエブ
サイト、医者の視覚的イメージを使用することが好ましい。これら及び多くの他
の変更は、ユーザによる人間的でリアルタイムな対話の経験をよりよいものとす
るために当業者によって採用される。
【0102】 通信リンク160Aの初期化 通信リンク160Aの初期化は図2−2の処理220Cを参照しながら説明す
る。図2−2に関して、この初期化は以下のコード成分により構成される。イン
ターネット接続234−この部分のコードはインターネット接続を行い、接続の
ためのパラメータをセットする。次いで、セットコールバック状態ルーチン23
5が接続状態をユーザに知らせるためにコールバック状態をセットする。最後に
、新しいHTTPインターネットセッション236が、新しいインターネットセ
ッションを開始する。通信リンク160の詳細及びセットアップ処理220Cは
重要ではなく、プラットフォームごとに変化する。ある場合、ユーザは低速のダ
イヤルアップ接続、専用の高速交換接続(例えば、T1)、常時接続xDSL、
ワイヤレス接続等を使用する。
【0103】 クエリー/回答の反復処理 図3に示すように、初期化が完了すると、反復クエリー/回答処理が、ユーザ
がクエリーを開始するためにスタートボタンを押圧したときに開始される。図3
に関して説明すれば、反復クエリー/回答処理は、クライアント側システム15
0のルーチンを実行するユーザ音声の受信240及びユーザ回答の受信243の
、二つの主なサブプロセスによって構成する。ユーザ音声の受信240ルーチン
は、ユーザからの音声を受信し、一方ユーザへの回答の受信243ルーチンは、
テキスト−音声エンジン159によりユーザに対する音声に変換するために、サ
ーバからのテキストの形式でユーザの質問に対する回答を受信する。ここで使用
されているように、「クエリー」の用語は最も広い意味で用いられ、質問、コマ
ンド又はシステムによって制御変数として使用されるある形式の入力を意味して
いる。例えば、クエリーは、特定の話題に向けられた質問で構成され、例えば、
遠隔学習アプリケーションにおける「ネットワークは何ですか」といったもので
ある。電子商取引アプリケーションにおいて、クエリーは、例えば「マーク・ト
ーエンによる本を全てリストせよ」といったコマンドである。同様に、遠隔学習
アプリケーションにおける回答は、テキスト−音声エンジン159により可聴形
式とされるテキストで構成されるが、これは、特定のアプリケーションの要求に
応じて図形画像、サウンドファイル、ビデオファイル等の他の形式のマルチメデ
ィア情報とすることが出来る。クライアント側ユーザ音声受信240及びユーザ
への回答の受信243ルーチンに必要な構造、機能、性能等に関して本発明の技
術が与えられると、当業者はこれを種々の方法により実施することが出来る。
【0104】 ユーザ音声の受信−図3に示すように、ユーザ音声の受信ルーチン240は、
SRE241と、通信242処理とで構成され、両者は、ユーザの発言を受信し
、部分的に処理するクライアント側システム150のルーチンとして構成される
。SREルーチン241は、コーダオブジェクトコーダがソースオブジェクトか
らの音声データを受け取るように準備されたコーダ248を使用する。次に、ス
タートソース249ルーチンが開始される。この部分のコードは、コードオブジ
ェクトに与えられるソースオブジェクトを用いてデータ検索を開始する。次に、
MFCCベクトル250が、無音を検索されるまで、発生された音声から連続的
に抽出される。前述のように、これは入力された音声信号の処理の第一段階を示
すもので、好適実施例においては、上記にすでに説明した理由によりMFCCベ
クトルの計算のみに限っている。これらのベクトルは、部分的に処理された音声
信号の13の別の数値に関する12のケプストラム係数及びRMSエネルギ条件
を含んでいる。
【0105】 ある環境において、使用可能な計算リソース、差0羽側システム180におい
て使用可能なデータリンク160Aにおける送信帯域、データ中のおいてデータ
の送信に使用される送信機の速度等に応じてMFCCデルタパラメータ及びMF
CC加速パラメータはクライアント側システム150によって計算される。これ
らのパラメータは、(リソースを測定するために目盛り付けルーチンのいくつか
のタイプを用いて)SRE155の初期化時にクライアント側システム又はユー
ザによる直接制御によって自動的に決定されて、信号処理の分担をケースバイケ
ースで最適化することが出来る。いくつかの用途においても、サーバシステム1
80に、入力された音声信号の処理を完了するためのリソースやルーチンが欠け
ている場合がある。従って、いくつかの用途において、信号処理の負荷の割り当
てを変化させることが出来、音声信号処理の量段階をクライアント側システム1
50で行うことが出来、音声信号を部分的にではなく完全に処理し、サーバ側シ
ステム180でクエリーに変換するために送信することも出来る。
【0106】 好適実施例において、質問/回答の見地から十分な精度をリアルタイム性能を
確保するために、クライアント側システムにおいて十分なリソースの使用を可能
として毎秒100フレームの音声データの部分的な処理を行い、リンク160A
を介して送信出来るようにする。音声認識処理を完了するために必要な最小限の
情報(13の計数のみが必要)が送信されるので、他の潜時(即ち、クライアン
ト側の計算潜時、パケット形成潜時、送信潜時)は最小限であるので、システム
は高度に最適化されたリアルタイム性能を達成する。本発明の原理は、SRE(
即ち、非MFCCベース)によって入力音声信号のブレークダウン他の方法が使
用される他のSRアプリケーションへの拡張が可能であることは、明らかである
。唯一重要なことは、SR処理が同様に複数の段階に異なる段階の負荷がリンク
160Aの両側で取り扱うことが出来るように分割可能とすることである。本発
明の機能は、システム毎に達成され、各具体的な実施のために必要な予測される
一般的な最適化が必要である。
【0107】 従って、本発明は、クライアント側システム150によって計算され、符号化
され、送信される情報の量に応じて調整される応答率性能を達成する。リアルタ
イム性能が最も重要な用途において、最小量の抽出された音声データが送信され
るようにして潜時を減少させ、他の用途においては、処理。符号化、送信される
抽出された音声の量を変化させることが出来る。
【0108】 通信−送信モジュール242は、好適実施例においてはインターネットで掲載
されるデータリンク160Aを介してクライアントからサーバへのデータの送信
を行うために使用される。上記に説明したように、符号化されたMFCCベクト
ルによって構成されるデータは、サーバ側の音声認識エンジンによって使用され
て、音声認識復号が完了される。通信シーケンスは以下の通りである。
【0109】 OpenHTTPRequest251−この部分のコードはまずMFCCベクトルをバイト
列に変換し、次いで、HTTPとして知られるプロトコルとの互換を計るように
バイトを処理する。このプロトコルは、周知であり、他のデータリンク、他の適
当なプロトコルも使用することが出来る。 1.MFCCバイト列の符号化251−この部分のコードは、MFCCベクトル
を符号化してHTTPを介してサーバに送信できるようにする。 2.データ送信252−この部分のコードは、MFCCベクトルを、インターネ
ット接続及びHTTPプロトコルを用いてサーバに送信する。
【0110】 サーバの応答を待つ253−この部分のコードは、データリンク及びサーバ側
システム160から到来する応答を監視する。概説すれば、MFCCパラメータ
は、入力される音声信号からのオンザフライを抽出し、観察する。次いで、それ
らはHTTPバイト列に符号化され、無音が検出される前にサーバにストリーミ
ングの要領で送信される、即ち発声が完了する前にサーバ側システムに送信され
る。ユーザが話している間にデータを送信、処理出来るので、本発明のこの態様
は、リアルタイム動作を容易とする。
【0111】 サーバからの回答を受信243は、図3に示す以下のモジュールで構成される
:MSエージェント244,テキスト−音声エンジン245及び受信モジュール
246である。これら三つのモジュールは、サーバ側システム180からの回答
を受信するために連関動作する。図3に示すように、受信処理は。クライアント
側システム150の受信ルーチンとして動作する三つの別のプロセスで構成され
る。最良の回答を受信258は、データリンク160B(HTTP通信チャンネ
ル)を介して最良の回答を受信する。回答は、259において伸張され、次いで
コード260によりMSエージェント244に送られ、そのコード部254によ
って受信される。ルーチン255は、次いで、テキスト−音声エンジン257を
用いて回答が発声される。勿論、テキストは、クライアント側システムによって
用いられるモニタにフィードバックの目的で表示することが出来る。テキスト−
音声エンジンは、(英語、仏語、独語、日本語等)の具体的な言語の用途に対し
て適当する自然語音声データファイル256を使用する。前述のように、回答が
テキスト以上のものである場合、図形画像、音、ビデオチップ等によりユーザに
回答を与える。
【0112】 アンイニシャライゼーションの手順と処理を図4に示す。これらの機能モジュ
ールは、クライアント側システム150の基本コンポーネントをアンイニシャラ
イゼーションするために用いられるものであり、これらの基本コンポーネントに
は、SRE270、通信271およびMSエージェント272アンイニシャライ
ゼーション手順が含まれている。SRE220Aをアンイニシャライゼーション
するために、初期化フェーズで割当てられたメモリは、コード273によって解
放され、この初期化フェーズの間に生成されたオブジェクトは、コード274に
よって削除される。同様に、図4に示すように、通信モジュール220Cをアン
イニシャライゼーションするために、サーバとの間ですでに確立されたインター
ネット接続を、通信アンイニシャライゼーション手順271のコード部275に
よって閉じる。次に、初期化の段階で生成されたインターネットセッションもま
た、手順271によって閉じる。MSエージェント220Bのアンイニシャライ
ゼーションのために、図4に示すように、MSエージェントアンイニシャライゼ
ーション手順272は、最初に、手順277を用いて、コマンド・インターフェ
ース227を解放する。これにより、手順225によってエージェント文字のロ
ーディングの間に、プロパティーシートに追加されるコマンドが発行される。次
に手順226によって初期化された文字インターフェースが、手順278によっ
て解放され、エージェントがステップ279でアンロードされる。さらに、ステ
ップ280でシンクオブジェクト・インターフェースも解放され、その後、ステ
ップ281でプロパティシート・インターフェースが解放される。次に、ステッ
プ282でエージェント通知シンクがエージェントを登録解除し、最後に、ステ
ップ283でエージェント・インターフェースが解除され、これにより、図2−
2に示した初期化ステップで割当てられた全てのリソースが解除されるものとな
る。
【0113】 図4に示したようなアンイニシャライゼーションの処理と手順の特定の実装方
法は、上述した他の手順と同様に、クライアントおよびサーバのプラットフォー
ムに応じて変更されることは、当該技術分野に精通した者にとっては、明白なも
のである。このような手順の構造、動作などは、従来例において既知のものであ
り、これらは、多くの直接的な方法を用いることにより実装することが可能であ
る。従って、これらの変更については、詳細には言及しないものとする。
【0114】 サーバ側シスエム180の説明 序文 図11Aから図11Cに、自然言語問い合わせシステム100のサーバ側シス
テム180に実装される処理群の一実施例の高レベルフローチャートを示す。本
実施例においては、この処理は、音声入力信号を処理し、ユーザの問い合わせの
意味を認識し、各問い合わせに対する適切な回答や応答を求めるための、2ステ
ップのアルゴリズムから構成されている。
【0115】 図11Aに示した第一ステップは、高速の第一刈り込み機構としてのものであ
り、以下の処理を含んでいる。音声入力信号を処理した後、ユーザの問い合わせ
はステップ1101で認識され、問い合わせ文の文字列がステップ1107で自
然言語エンジン190(図1参照)に送られ、同時にステップ1102でDBエ
ンジン186(同様に図1参照)に送られる。ここで「認識される」とは、以前
に説明したHMM手法によって、ユーザの問い合わせが特有の自然言語文の文字
列に変換されることを指す。
【0116】 NLE190では、文字列は、ステップ1108で、形態素言語解析の処理を
経て、文字列はトークン化され、タグが付与され、タグ付きトークンが分類され
る。次に、ステップ1109で、文字列の名詞句(NP)が格納され、DBプロ
セスでDBエンジン186が利用できるように、ステップ1110で、複写、転
送される。図11Aに示すように、ステップ1102でEBエンジン186に転
送されたユーザの問い合わせに対応する文字列は、NLE190から受信したN
Pとともに用いられて、ステップ1103でSQLクエリが構成される。次に、
ステップ1104で、SQLクエリが実行され、ユーザの問い合わせに対応した
もっともらしい質問の記録セットが、ステップ1105で前文検索の結果として
得られ、さらに、ステップ1106で、配列の形式でNLE190に返送される
【0117】 上述したように、サーバ側処理の第一ステップは、効率的で高速な刈り込み機
構として作用し、極めて短時間のうちに、ユーザの実際の問い合わせに対応した
的確な検索結果をもっともらしい文章の候補に絞りこむようにするものである。
【0118】 図11Bに示した第二ステップは、上記の第一ステップと対比すると、認識処
理の中の、より正確な選択処理部として捉えられるものである。このステップは
、ユーザの問い合わせを表す可能性のある候補として全文検索によって得られ、
配列状に格納された質問文の各々を言語処理するところから始まる。これらの格
納された質問文の処理は、NLE190で、以下のように進められる。SQL全
文検索によって得られた記録セットに対応した質問文の配列中の各質問文につい
て、ステップ1111で、形態素言語解析を行う。この処理で、検索された質問
文の候補に対応する文字列はトークン化され、タグが付与され、タグ付きトーク
ンが分類される。次に、ステップ1112で、文字列中の名詞句を取り出し格納
する。この処理は、判断点1113によって繰り返しの判定を受け、得られた問
い合わせ文の候補についてNPを求めて格納するように、ステップ1118、1
111、1112、1113が繰り返される。配列中の問い合わせ文の候補の各
々についてNPが取り出されると、ステップ1114で、NP値の大きさにもと
づいて、配列中の問い合わせ分の候補の各々と、ユーザの問い合わせとを比較す
る。配列中にもはや処理すべき問い合わせ文がないとステップ1117で判定さ
れると、ステップ1117Aで、ユーザの問い合わせに関して最大のNP値をも
つ格納された問い合わせを特定し、これをユーザ問い合わせにもっとも適合した
格納された問い合わせと判断する。
【0119】 特に、認識処理の第二ステップは、複数の文字列がトークン化され複数のNP
について比較する必要があるため、先の第一ステップよりも計算量が多いという
ことが分かる。しかし、第一ステップが、迅速かつ効率的に、評価すべき候補を
かなりの程度になるまであらかじめ絞り込んでおくことがなければ、これは現実
的とは言えない。従って、本発明での、この計算量の多さは、問い合わせ文の認
識処理全体でより高精度の認識結果をもたらすことに寄与するため、その特徴は
かえって価値のあるものとなる。従って、この点について、問い合わせ文認識の
第二ステップでは、システム全体を通して精度を確保することを目的とし、これ
に対し、第一ステップは、ユーザにとってリアルタイムの応答感覚が提供できる
十分な速度を提供することを目的としている。
【0120】 図11Cに示すのは、問い合わせ、応答処理の最後の部分であり、ユーザに対
して、適切な適合した回答、応答を提供する処理である。まず、ステップ112
0で、格納された問い合わせ文中で適合したものを特定する。次に、ステップ1
121で、特定された適合質問への回答に対応したファイルパスを取り出す。さ
らに処理を続け、ステップ1122で、このファイルパスに基づき回答を取り出
し、最後にステップ1123で、回答を圧縮しクライアント側システム150に
送る。
【0121】 上述の内容は、サーバ側システム180のNLQSシステムの各部分の基本要
素、動作、機能および特性の概観を説明しようとしたものである。以下に、各サ
ブシステムの諸委細を説明する。
【0122】 サーバ側システム180で用いられるソフトウェアモジュール NLQSシステムのサーバ側システム180で用いられる、主要なソフトウェ
アモジュールを、図5に示す。これらは、一般的に、以下の要素を含んでいる。
通信モジュール500は、(図1のSREサーバ側182によって実行されるも
のであり、以下に詳説する)コミュニケーションサーバISAPI500Aと、
(図1のDBエンジン186によって実行される)データベースプロセスDBプ
ロセスモジュール501と、(図1のNLE190によって実行される)自然言
語エンジンモジュール500Cと、NLEプロセスモジュール500CとDBプ
ロセスモジュール500Bとの間のインターフェース500Bを含んでいる。こ
こで示すように、コミュニケーションサーバISAPI500Aは、サーバ側音
声認識エンジンと、クライアント側システム150とサーバ側システム180と
の間に配置されたな適切な通信インターフェースとを含んでいる。さらに、図5
によれば、自然言語問い合わせシステム100のサーバ側論理は、2つのダイナ
ミックリンクライブラリコンポーネント、通信サーバISAPI500とDBプ
ロセス501を含むことに特徴があるといえる。通信サーバISAPI500は
、サーバ側音声認識エンジンモジュール500A、自然言語エンジンモジュール
500CとDBプロセス501との間のインターフェースモジュール500B、
さらに自然言語エンジンモジュール500Cという、3つのサブモジュールから
構成されている。
【0123】 DBプロセス501は、SQLデータベースに接続し、ユーザの問い合わせに
応じて構成されるSQLクエリを実行することを基本機能とするモジュールであ
る。さらに、このモジュールは、自然言語エンジンモジュール500Cから一端
回答が得られた時のファイルパスに基づき、その後は、この正確な回答を取り出
すための論理に接続するインターフェースを持っている。
【0124】 サーバ側システム180上の音声認識サブシステム182 サーバ側音声認識エンジンモジュール500Aは、サーバ側180での音声認
識エンジン182(図1)の必要な機能と動作とを行う分散コンポーネントの一
群である。これらのコンポーネントは、既知のように、サーバ側180で実行さ
れるソフトウェア処理として実装することができる。図4Aには、サーバ側の音
声認識コンポーネントの動作をより詳細に展開したものを示し、以下でこれを説
明する。
【0125】 サーバ側SREモジュール500Aの部分601の内部では、クライアント側
システム150で抽出され、通信チャネル160を会して送られた音声信号の音
響特性に対応したバイナリMFCCベクトルバイトストリームを受信する。MF
CC音響ベクトルは、符号化されたHTTPバイトストリームから以下のように
復号化される。MFCCベクトルは、組み込みNULL文字を含んでいるため、
HTTPプロトコルを使うようなサーバ側に対しては、これらのベクトルはこの
ままの形式では送出することができない。従って、まず最初に、転送に先立って
、クライアント側150でMFCCベクトルを符号化し、全ての音声データを、
データ中にNULL文字が含まれないようなバイトストリームに変換する。バイ
トストリームの終端部には、HTTPプロトコルを用いてインターネット160
A経由でサーバに転送されるバイトストリームの終了を示すように、単一のNU
LL文字が挿入される。
【0126】 前述したように、クライアントとサーバ間の待ち時間を維持、保存するために
、より少ない数のバイトデータ(13のMFCC係数)をクライアント側システ
ム150から、サーバ側システム180へ送る。これは、各プラットフォームに
対して画一性を保証するために、自動的に行うか、もしくは、特定のアプリケー
ション環境によって調整することができる。例えば、サーバでデルタおよび加速
係数を計算(さらに26回の計算)するのに、クライアントでこれらを符号化し
、転送し、HTTPストリームから復号化するよりも短い時間で行えるのかを判
定する場合などがそうである。一般的に、サーバ側システム180は、MFCC
デルタおよび加速パラメータを計算するのに、充実した装備を持っているのが普
通であるため、この方が好ましい。さらに、クライアントのリソースに比べ、サ
ーバのリソースの方が管理しやすく、すなわち、より信頼性のある予測可能なシ
ステム全体の性能をもたらす上で、将来のアップグレードや最適化等がシステム
全体で享受しやすいという事情がある。従って、本発明は、クライアントマシン
が極めて貧弱で、音声入力データを入力して最小限の処理だけがこなせる程度の
リソースしか持ち合わせないといった最悪のシナリオでさえも実施可能である。
【0127】 辞書の準備と文法ファイル 図4Aにおいて、コードブロック605では、ユーザによって選択された(あ
るいは、特定のアプリケーションの内部でのユーザの状態から探り出された)様
々なオプションを受信する。例えば、遠隔教育システムの例では、コース、チャ
プターおよび/またはセクションデータが通信される。他のアプリケーション(
例えば、電子商取引)の場合には、製品の種類、製品のカテゴリ、製品のブラン
ドなど、ユーザが彼/彼女のブラウザ中で閲覧するために使用される他のデータ
オプションが通信される。これらの選択されたオプションは、ユーザが対話処理
プロセスの中で経験した背景に基づくものであり、従って、検索の範囲を限定し
定義するものとなる。すなわち、この背景は、音声認識エンジン182(図1)
に動的にローディングされ、ユーザの音声発話を解析する際のビタビ復号化のた
めの文法と辞書である。音声認識を最適化するために、本実施例では、文法と辞
書ファイルの両方を用いる。文法ファイルは、利用可能なユーザの問い合わせの
世界を提供する。すなわち、認識すべき、全ての可能な用語を提供する。辞書フ
ァイルは、文法ファイル中に含まれる各語の音素(語を発音する方法に関する情
報。これは、インストールされる特定の自然言語ファイルに基づくものであり、
例えば、UKEnglish(英国英語)あるいはUSEnglish(米国英
語)のようなものである)を提供する。もし、認識可能な特定の環境での全ての
文章が、単一の文法ファイルに含まれているならば、その認識の精度は悪化し、
この文法および辞書ファイルだけのローディング時間は、音声認識処理の時間に
比べて短くなることは明白である。
【0128】 この問題を避けるためには、特定の文法を動的にロードし、ユーザの使用背景
、例えば、遠隔教育システムでの場合の、コース、チャプターおよびセクション
の選択状態に応じて、現状の文法として動的に構成することが考えられる。ユー
ザが読み取り書き取りしている所定のコース、チャプターおよびセクションに従
って、文法および辞書ファイルを動的にローディングしたり、ユーザによって実
行されるアプリケーションプログラムによって自動的にそのローディングを行う
こともできる。
【0129】 第二のコードブロック602は、音声認識エンジン182(図1)の初期化を
実装した部分である。クライアント側システム150から、文法ファイル名と辞
書ファイル名とともに受信したMFCCベクトルは、このブロックに入力され、
音声復号器を初期化する。
【0130】 図4Aに示すように、初期化プロセス602は、以下のサブルーチンを用いる
。まず、ルーチン602aで、SREライブラリをローディングする。次に、コ
ード602bで、受信したMFCCベクトルを用い、外部ソースとして識別され
るオブジェクトを生成する。コード602cは、認識オブジェクトを格納するメ
モリを割当てる。次にルーチン602dもまた、認識のために必要とされるオブ
ジェクトを生成し初期化する。これらのオブジェクトは、ソース、コーダ、およ
びコード602eにより生成される辞書の認識および結果ローディング、コード
602fにより生成される隠れマルコフモデル(HMM)、およびルーチン60
2gにより生成される文法ファイルのローディングである。
【0131】 図4Aに示すように、音声認識603が次に呼び出される処理であり、通常は
、クライアント側150での、ユーザの音声入力信号の処理の完了に呼応して実
行されるが、前述したように、MFCCベクトルがリンク160を介して伝送さ
れたときには、部分的に(すなわち、MFCCベクトルだけが第一フェーズで計
算されるのみとする)処理されることが好ましい。サブルーチン602bによっ
て外部ソース中に生成された関数を用いて、このコードは、外部ソース603a
から一度に一つづつMFCCベクトルを読み込み、これらをブロック603bで
処理し、クライアントで取り込まれたMFCCベクトルによって表された音声パ
タン中の語を認識する。この第二のフェーズの間、更に付け加えられた13のデ
ルタ係数と、13の加速係数を認識処理の一部として計算に加え、全部で39の
前述した観測ベクトルOvが得られる。さらに、以前に定義した隠れマルコフモ
デル(HMM)のセットを用いて、ユーザの発声に対応した語を、前述した方法
で決定する。これにより、問い合わせ処理での、語を「認識する」処理が行われ
、この処理結果は、以下での問い合わせ処理で用いられる。
【0132】 語の認識処理の分散構成と高速性能が、それ自身特に有益であり、他の問い合
わせ処理を組み込んだり、必要としない他の環境と組み合わせて実施することは
、当該技術分野に精通した者にとっては、明白なものである。例えば、いくつか
のアプリケーションでは、コンピュータが生成した様式の中のデータ項目を埋め
るために、単純に、認識された個々の語を用いることもでき、上述したシステム
と処理方法は、これを行うために高速で信頼性の高い機構を提供することができ
る。
【0133】 ユーザの音声が認識されると、SRE182の処理フローは、SREアンイニ
シャライゼーションルーチン604に進み、そこで、図示したように音声エンジ
ンはアンイニシャライゼーションされる。このブロックでは、ルーチン604a
により、先に初期化ブロックで生成された全てのオブジェクトを削除し、初期化
フェーズで初期化ブロックによって割当てられたメモリは、ルーチン604bに
よって削除される。
【0134】 また、上述した内容は、本発明のサーバ側の音声認識システムで用いられる特
定のルーチンを実装する一実施例を例証したものにすぎない。本発明の開示によ
れば、本発明の所定の機能性と目的を同様に達成するために、他の変形も可能と
なることは明白である。
【0135】 データベースプロセッサ186の動作−DBプロセス ユーザの問い合わせ処理お一部として用いられるSQLクエリの構成を、図4
Bに示す、ここで、SELECTSQL文は、既知のCONTAINS述語を用
いて構成されることが好ましい。モジュール950は、このSELECTSQL
文に基づいて、SQLクエリを構成し、このクエリは、ユーザが発声した問い合
わせ(ここでは、質問と言う)に対応し、データベース中に格納された最適な問
い合わせ文を検索するために用いられる。次に、ルーチン951は、構成された
SELECT文にテーブル名称を付け加える。次に、ルーチン952により、ユ
ーザによって発せられた質問の名詞句の語数を計算する。さらに、ルーチン95
3で、NPで与えられた全ての語を収容するために必要なメモリを割当てる。次
に、ルーチン954により、(NPで与えられた個々の語全てを識別する)語リ
ストを求める。その後、ルーチン955で、この個々の語のセットを、NEAR
()キーワードで分離したSQLクエリに付け加える。次に、ルーチン956で
、SQLクエリの各NPの後ろに、ANDキーワードを付け加える。最後に、コ
ード957で、メモリリソースを解放し、次の繰り返し処理のために、NPから
受信された語を格納するメモリを割当てる。以上のように、本処理の結果、ユー
ザの発声した質問に対応した完全なSQLクエリが生成される。
【0136】 SQLサーバへの接続 図4Cに図示したように、ルーチン710でSQLクエ
リを構成した後、ルーチン711は、問い合わせデータベース717への接続を
行い、引き続きユーザの問い合わせの処理を進める。この接続手順と、それに伴
う検索記録のセットは、以下の手順で実装される。 1.ルーチン711Aで、サーバとデータベースの名称を、DBプロセスメン バー変数に割当てる。 2.ルーチン711Bで、接続文字列を生成する。 3.コード711Cの制御の元で、SQLサーバデータベースを接続する。 4.ルーチン712Aで、SQLクエリを受信する。 5.コード712Bで、SQLクエリを実行する。 6.ルーチン713で、クエリによって検索された記録の全数を取り出す。 7.ルーチン713で、組になった質問の全数を格納するためのメモリを割当 てる。 8.ルーチン713で、組になった質問の全数を、配列の形で格納する。
【0137】 図4Cのルーチン716で、NLE14(図5)から最良の回答IDを受信す
ると、716Cに対応したコードがこれを受信し、さらにコード716Bに送り
、そこで記録番号を用いて、回答ファイルへのパスが決定される。次に、716
Cがこのファイルへのパスを用いてこのファイルを開き、回答に対応したファイ
ルの内容を読み取る。さらにこの回答は、716Dのコードによって圧縮され、
通信チャネル160B(図1)を介した伝送のために加工される。
【0138】 NLQSデータベース188−テーブル構成 図7は、典型的なNLQSデータベース188(図1)で用いられるテーブル
の論理構造の一実施例を示すものである。NLQSデータベース188が、遠隔
教育/訓練の環境として実装されたNLQS問い合わせシステム100の一部と
して用いられる場合には、このデータベースは、通常、いくつかのチャプター7
02、703、704からなるコース701を含む、組織化されたマルチレベル
の階層構造を含むものとなる。これらのチャプターの各々は、チャプター1とし
て示された、一つあるいはそれ以上の数のセクション705、706、707を
有している。チャプター2、チャプター3…チャプターNについても、同様の構
造となっている。各セクションは、以下に詳説するテーブルに格納された、一つ
あるいはそれ以上の質問/回答の組708、709、710を有している。この
構成は、教育/訓練の応用に対して適切で最適なものであるが、他の実装方法も
可能であり、電子商取引、電子支援、インターネット閲覧などの他の応用に対し
てはそれらの全体システムのパラメータに応じてより好適な構成とすることがで
きることは明白である。
【0139】 NLQSデータベース188の構成は、前述した切り換え可能な文法構造に対
して、複雑にリンクされている。言い換えると、ユーザが体現している背景(あ
るいは環境)は、いかなる時でも、そのセクションレベルでなされた選択に基づ
いて決定され、例えば、限定された質問/回答の組708のサブセットだけがセ
クション705で取り扱うのにふさわしいものとされる。すなわち、このような
背景にユーザが直面している間、ユーザの問い合わせを扱うために、このような
質問/回答の組に対して特定の適切な文法だけを切り換え選択するものとなって
いる。同様に、インターネットを使った商取引のための電子商取引アプリケーシ
ョンは、ユーザが選択可能なオプション(製品種類、サービス、問い合わせ先情
報など)を特定する第一レベルの「ホーム」ページ701を含み、その第二レベ
ルは特定の「製品種類」702、703、704等を含み、その第三レベルは、
特定の製品モデル705、706、707等を含むような階層構造から構成され
、適当な質問/回答の組708、709とこのような製品モデルのための問い合
わせを扱うためにカストマイズされた文法から構成されるものであってよい。な
お、アプリケーションによって、ビジネスのニーズと要望に応じて特定の実装方
法を変えることになり、このような個々のアプリケーションに対しては、処理ル
ーチンを適切い最適化することが必要となる。
【0140】 テーブル構成 本実施例では、各コースに対して、独立したテーブルを用いている。すなわち
、各データベースは、以下の3種類のテーブルを含んでいる。図7Aに示される
マスターテーブル、図7Bに示されるような少なくとも一つのチャプターテーブ
ル、および図7Cに示されるような少なくとも一つのセクションテーブルである
【0141】 図7Aに示すように、マスターテーブルの一実施例は、6つの列を有している
。すなわち、フィールド名701A、データ型702A、サイズ703A、Nu
ll704A、基本キー705A、およびインデックス706Aである。これら
のパラメータは、データベース設計および構成の分野では、既知のものである。
マスターテーブルは、2つのフィールド、チャプター名707Aおよびセクショ
ン名708Aのみを有している。チャプター名およびセクション名は、通常、イ
ンデックス化されている。
【0142】 チャプターテーブルの一実施例を、図7Bに示す。マスターテーブルと同様に
、チャプターテーブルも6つの列を有している。すなわち、フィールド名720
、データ型721、サイズ722、Null723、基本キー724、およびイ
ンデックス725である。しかし、データには9この行を含んでいる。すなわち
、この場合は、チャプターID726、回答ID727、セクション名728、
回答タイトル729、組になっている質問730、回答へのパス731、クリエ
ータ732、データ生成日時733およびデータ修正日時734である。
【0143】 チャプターテーブルのフィールドの説明を、図7Cに示す。8つのフィールド
730の各々は、記述欄731を有し、以下に対応したデータを格納している。
【0144】 回答ID732−ユーザの都合に合わせて、各回答ごとに自動的に更新される
整数。
【0145】 セクション名733−特定の記録が所属するセクションの名称。本フィールド
と回答IDとを合わせて、基本キーとして用いられる。
【0146】 回答タイトル734−ユーザの問い合わせへの回答のタイトルの簡単な説明。 組になっている質問735−次の列、回答へのパスに格納されたパスをもつ回
答に対応した、一つあるいはそれ以上の数の質問の組。
【0147】 回答へのパス736−直前の列に格納された関連した質問に対する回答を含む
ファイルへのパスを含むもの。単純な質問/回答アプリケーションの場合には、
このファイルはテキストファイルであるが、上述したようにデータリンク160
を介して何がしかの転写が可能なマルチメディアファイルであることも可能であ
る。
【0148】 クリエータ737−データの中身を生成したクリエータの名称。 データ生成日時738−データの中身が生成された日時。
【0149】 データ修正日時739−データの赤みが変更、修正された日時。 セクションテーブルの位置実施例を、図7Dに示す。セクションテーブルは、
6つの列を有している。すなわち、フィールド名740、データ型741、サイ
ズ742、Null743、基本キー744およびインデックス745である。
データには7つの行、すなわち、回答ID746、回答タイトル747、組にな
っている質問748、回答へのパス749、クリエータ750、データ生成日時
751およびデータ修正日時752を有している。これらの名称は、上述したマ
スターテーブルおよびチャプターテーブルと同様のフィールドおよび行に対応し
ている。
【0150】 なお、本例は、以上で説明した教育/訓練アプリケーションの特定のものに対
する実施の形態である。本発明が利用できる可能性のあるアプリケーションは多
岐にわたっており、各アプリケーションに応じてカストマイズが可能となってい
るため、(他の教育/訓練アプリケーションを含む)他のアプリケーションでは
、他のテーブル、行およびフィールドの構成と階層構造が必要となったり、それ
らによってより良い実装形態となる場合もありうる。
【0151】 サーチサービス及びサーチエンジン―クエリーテキストサーチサービスは、図
10に示すSQLサーチシステム1000により実行される。このシステムはク
エリーをサポートし、全文検索の処理を行う。此処に全文インデックスが存する
【0152】 通常、SQLサーチシステムは、明瞭なユーザ発言に対応して構成された特定
のテキストクエリーによって指定される選択基準に、データベースインデックス
のいずれのエントリが一致するかを決定する。インデックスエンジン1011B
は、記憶された質問及び対応する回答に対してテキストのインデックス可能な単
位に対応するインデックスを、全文インデックステーブルに集めるものである。
これは文字列を走査し、ワードの境界を決定し、全てのノイズワードを取り除き
、そして残った語を全文インデックスに集める。選択基準に一致する全文データ
ベースへのエントリを容易とするために、独自のキー欄の値とランキング値が同
様に返される。カタログセット1013はファイル―システムディレクトリであ
り、管理者及びサーチサービス1010によってのみアクセス可能である。全文
インデックス1014は全文カタログへと組織され、これらは取り扱い容易な名
称によって参照される。一般的には、全データベースの全文インデックスデータ
は単一の全文カタログへと配置される。
【0153】 前述(図7、7A、7B、7C、7D)の全文データベースの図式は図10に
示すテーブル1006に記憶されている。これらのテーブルは例えば、特定のコ
ースに必要な記憶された質問/回答の対の構造を記述する必要がある。各テーブ
ル―コーステーブル、チャプタテーブル、及びセクションテーブルに対してフィ
ールド―欄情報があり、これがテーブルの論理構造を作り上げる各パラメータを
規定する。この情報はユーザ及びシステムテーブル1006に記憶される。これ
らのテーブルに対応するキー値は全文カタログ1013として記憶される。した
がって、全文検索を処理すると、サーチエンジンはサーチ基準に一致する行のキ
ー値をSQLサーバに返す。リレーショナルエンジンがその後、この情報を用い
て質問へと応答する。
【0154】 図10に示すように、全文クエリー処理は以下のように実施される。 1.DB処理装置186によって形成されるSQL全文構造を用いたクエリー1
001をSQLリレーショナルエンジン1002へと提出する。 2.CONTAINS述部又はFREETEXT述部を含むクエリーがルーチン
1003によって書き換えられ、後に全文プロバイダ1007から戻される応答
性の高いローセットが、述部が作用するテーブルへと自動的に結合される。この
書き換えは、これらの述部が従来のSQLサーバへのシームレスな拡張であるこ
とを確保するために用いられるメカニズムである。 3.この後、全文プロバイダ1007が呼び出され、クエリーに対して以下の情
報を送る。 a.前方検索条件パラメータ(これは全文検索条件を示す論理フラグである) b.テーブルの全文インデックスが存する全文カタログの名称 c.言語(例えば、単語分け)に対して用いられるローカルID d.このクエリーに用いられるデータベース、テーブル、及び欄のアイデンティ
ティ e.もしクエリーが2つ以上の全文構造からなるなら;この場合、全文プロバイ
ダ1007が各構造に対して個別に呼び出される。 4.SQLリレーショナルエンジン1002は前方検索条件の内容を検査しない
。代わりに、この情報は全文プロバイダ1007へと渡され、これがクエリーの
妥当性を確認し、その後全文検索条件の適当な内部表現を構成する。 5.次にクエリー要求/コマンドがクエリーサポート1011へと渡される。 6.クエリーサポート1012が、全文検索基準に一致するすべての行に対して
独自のキー欄値を含む全文カタログ1013からローセット1009を戻す。ラ
ンク値もまた各行に対して戻される。 7.キー欄値のローセット1009がSQLリレーショナルエンジン1002へ
と渡される。クエリーの処理がCONTAINSTABLE()関数或いはFR
EETEXTTABLE()関数と関係するなら、ランク値が戻され、それ以外
の場合はランク値をフィルタにかけることで除外する。 8.ローセット値1009はリレーショナルデータベース1006から得られた
値と共に最初のクエリーへと加えられ、そして結果セット1015が更なる処理
のために戻されてユーザへの応答を生じる。
【0155】 クエリー認識処理のこの段階において、ユーザによる発言は既に注意深く作ら
れたテキストクエリーへと迅速に変換されており、そしてこのテキストクエリー
は、好適一致する質問/回答対の最終決定のために結果の初期一致群がさらに評
定可能なように、最初に処理されている。これを可能とする根本原理は、全文検
索のために登録された各テーブルにおける全文ユニークキー欄の存在である。こ
のように、全文検索を処理すると、SQLサーチサーバ1010がデータベース
と一致する行のキー値をSQLサーバ1002へと戻す。これら全文データベー
ス1013及び全文インデックス1014の維持において、本発明は、全文登録
欄がアップデートされて直ぐには全文インデックス1014がアップデートされ
ないとの他に類を見ない特徴を有する。再度に亘り識別待ち時間を短くし反応速
度を高めるなどの為に、この操作は排除される。このように、さもなくばかなり
の時間を要するであろう全文インデックステーブルのこのアップデートは、他の
データベースアーキテクチャと較べ、代わりに、より好適な時に同期的に実施さ
れる。
【0156】 NLE190とDB処理装置188とのインターフェース ユーザクエリー発言へと対応する質問候補の結果セット1015は、図4Dに
示す更なる処理のためにNLE190へと送り出され、「最良」一致の質問/解
答対を決定する。NLE/DB処理装置インターフェースモジュールは、ユーザ
クエリーの取り扱い、ユーザクエリーに基づくSQLクエリーからの検索質問の
組のうちの名詞句(NPs)の解析、検索質問のNPsとユーザクエリーのNP
との比較などを、NLE190とDB処理装置188との間で調整する。したが
って、サーバ側コードのこの部分には関数が含まれ、これがNLEブロック19
0とDB処理装置ブロック188の双方に常駐する処理の仲立ちをする。この関
数は図4Dに示され;ここでわかるように、コードルーチン800はユーザの質
問から名詞句(NP)リストを抽出する機能を果たす。コードのこの部分はNL
E190と影響し合い、ユーザによって明瞭に発音された文の名詞句のリストを
得る。同様に、ルーチン813は、対応する候補/対の質問1015のリストか
らNPリストを検索し、これらの質問を(NP値によってランク付けされる?)
列へと記憶する。このように、この時点でNPデータが、質問候補1015のた
めと同様に、ユーザクエリーのために生成されている。「如何なる問題が大統領
にアメリカ企業に対する外国貿易政策の影響を考慮せしめたのか?(What issue
s have guided the President in considering the impact of foreign trade p
olicy on American businesses?)」のような一文の名詞句断定の一例としては
、NLE190は以下のものを名詞句として返すであろう:大統領(President
)、問題(issues)、貿易政策の影響(impact of foreign trade policy)、ア
メリカ企業(American businesses)、影響(impact)、外国貿易の影響(impac
t of foreign trade)、外国貿易(foreign trade)、外国貿易政策(foreign t
rade policy)、貿易(trade)、貿易政策(trade policy)、政策(policy)、
企業(businesses)。NLE190によって用いられる方法論はしたがって、例
示のクエリーに対応して生成されたこの名詞句の組及び名詞準句(noun sub-phr
ases)から当業者には明らかである。
【0157】 次に、最良回答獲得(Get Best Answer)ID815として識別される関数が
実施される。コードのこの部分はユーザクエリーに対応する最良の回答IDを獲
得する。これを為すために、ルーチン813A及び813Bはまず、ユーザクエ
リーでの名詞句と一致する検索群1015における各エントリに対して、名詞句
の数を見出す。その後、ルーチン815aが、最大数の一致名詞句を含む検索候
補群1015から最終的な結果レコードを選択する。
【0158】 従来、名詞とは一般に「命名」語、具体的には「人、場所、又は物」の名称と
考えられている。ジョン(John)、ロンドン(London)、及びコンピュータ(co
mputer)などの名詞は確かにこの説明に合致するが、本発明によって名詞として
分類される語のタイプはこれよりもずっと広い。名詞はまた、誕生(birth)、
幸福(happiness)、進化(evolution)、科学技術(technology)、経営(mana
gement)、想像(imagination)、報復(revenge)、政治(politics)、希望(
hope)、料理法(cookery)、スポーツ(sport)、識字能力(literacy)、など
の抽象的及び無形の概念をも示すことができる。会話の他の箇所に比べ名詞は非
常な多様性を有するが故に、言語基準のキーとして名詞句を考慮することが遥か
に適切であることを出願人は見出した。そして、本発明により名詞と分類される
非常に多くの項目は、当該分野において知られる先行技術と比べより簡単且つ迅
速に個々の発言を選別し識別することに役立つ。
【0159】 これと同じ考えに従い、本発明はまた別の言語要素―語句(word phrase)を
採用・遂行し、音声クエリー認識を容易となす。名詞句、動詞句、或いは形容詞
句であろうと、語句の基本構造は3つの部分―「主要語前の文字列(pre-Head s
tring)」、「主要語(Head)」、及び「主要語後の文字列(post-Head string
)」からなる。例えば、最小限の名詞句「その子供たち(the children)」にお
いては、「子供たち(children)」が名詞句の主要語として分類される。要約す
れば、名詞句の多様性及び頻度故に、それにより記憶回答が言語学的に選ばれる
基準として名詞句を採用することは、他の自然語同様、英語の自然語への本技術
の適用において確固たる根拠を有する。そしてつまり、総合された発言中の全名
詞句は音声クエリーフィンガープリントの独自のタイプとして極めて好適に作動
する。
【0160】 次に、選ばれた最終結果のレコード質問に対する最良回答に対応するIDがル
ーチン815によって生成され、次にこれを図4Cに示すDB処理へと返す。こ
こでわかるように、最良回答ID Iはルーチン716Aによって受け取られ、
ルーチン716Bによって用いられ回答ファイルパスを検索する。次にルーチン
716Cが回答ファイルを開いて読み取り、ルーチン716Dへと同一の内容を
伝える。後者は次に回答ファイルデータを圧縮し、前述の処理のために(すなわ
ち、可聴フィードバック、可視テキスト/画像などへの変換のために)データリ
ンク160を介してそれをクライアント側システム150へと送る。繰り返せば
、学習/教育用途し関しては回答ファイルは単一のテキスト句からなるものでよ
いが、他の用途においては内容及びフォーマットは好適な形式の特定な質問へと
体裁を整えられることとなる。例えば、「回答」は応答するカテゴリ要素のリス
ト(すなわち、特定の著者の本のリスト)などへと対応する複数のエントリのリ
ストからなるものとできる。その他の変更例は独自の状況に応じて明らかである
【0161】 自然語エンジン190 再度図4Dを参照し、NLエンジン190の概略構造を述べる。このエンジン
は、クエリーから抽出された句の句解析と並んでワード解析、すなわちユーザク
エリーを作り上げるワードの形態素解析を行う。
【0162】 図8Aに示すように、形態素解析に用いられる関数は、トークナイザー(toke
nizers)802A、ステマー(stemmers)804A、形態素アナライザー(morp
hological analyzers)806Aを含む。句解析を構成する関数は、トークナイ
ザー、タガー(taggers)、及びグルーパー(groupers)を含み、その関係は図
8に示される。
【0163】 トークナイザー802Aはソフトウエアモジュールであり、入力文801Aの
テキストを分解し、トークン803Aのリストとするように機能する。この機能
の実行において、トークナイザー802Aは入力テキスト801Aを走査し、ト
ークン、すなわち、概して個々の文字よりは大きいが句及び文よりは小さい有用
な有意味単位、の一群としてこれを扱う。これらのトークン803Aはワード、
ワードの分離可能部分、及び句読点を含む。各トークン803Aにはオフセット
と長さが与えられる。トークン化の第一段階は、入力テキストから個別のトーク
ンを抽出し、入力テキスト内に由来する各トークンのオフセットのトラックを維
持するセグメント化である。次に、その形状に基づいてカテゴリを各トークンと
関連させる。トークン化処理は技術的に公知であり、よって本発明に好適な如何
なる従来の出願によっても実施可能である。
【0164】 トークン化に続きステマー処理804Aが実行されるが、これはトークンを解
析しそれぞれの基語(stems)805Aを決定するための2つの別個の形態―屈
折形及び派生形、を含む。屈折ステマーは接辞を認識し、基語であるワードを返
す。一方派生ステマーは派生接辞を認識し、一つまたは複数の基語を返す。ステ
マー804Aは入力ワードをその基語と関連付けるが、音声情報の部分は有しな
い。アナライザー806Bは文脈とは無関係にワードを取り上げ、発言806A
のうちの可能性のある部分の群を返す。
【0165】 図8に示すように、句解析800は次のステップであり、トークン化の後に行
われる。トークン803はタガールーチン804によって音声タグの部分へと割
り当てられ、そしてグルーパールーチン806が、ある種の統語的タイプの句と
してワードのグループを認識する。これらの統語的タイプは、例えば前述の名詞
句を含むが、必要に応じて動詞句、形容詞句などの他のタイプも含むことが可能
である。具体的には、タガー804は会話の一部から曖昧さを除去するもの(pa
rts-of-speech disambiguator)であり、文脈においてワードを解析する。これ
は固有の形態素アナライザー(図示せず)を有し、各トークンにおいて会話のう
ちの可能性のある全ての部分を識別可能せしめる。タガー804の出力は文字列
であり、各トークンは会話部分(parts-of-speech)ラベル805でタグ付けさ
れている。言語処理800における最後のステップはワードのグループ化であり
、句807を形成する。この機能はグルーパー806によって実行され、そして
もちろん、タガー構成要素804の性能及び出力に大きく依存する。
【0166】 したがって、言語処理800の最後では、名詞句(NP)807のリストがユ
ーザのクエリー発言に応じて生成される。NLE190によって生成されたこの
NPsの群は、最良の回答を得るための検索を精緻化するのに著しく役立ち、よ
って後にユーザの質問に対して単一の最良な回答がもたらされることが可能とな
る。
【0167】 NLE190の特有な構成要素が図4Dに示され、そして幾つかの構成要素を
含む。これらの構成要素のそれぞれが今説明したようなNLE190に要求され
る幾つかの異なった機能を果たす。
【0168】 グルーパーリソースオブジェクト及びライブラリの初期化900―このルーチ
ンは、グルーパーリソースオブジェクト及びライブラリの創出に必要な構造体変
数を初期化する。具体的には、これはNLE190によって用いられる特定の自
然語を初期化し名詞句を作り出すもので、例えば、英語市場に供されるシステム
では英語の自然語が初期化される。次にそれはまた、それぞれルーチン900A
、900B、900C及び900Dを用いて(前述の)トークナイザー、タガー
そしてグルーパーに必要とされるオブジェクト(ルーチン?)を創出し、これら
のオブジェクトを好適な値で初期化する。これはまたメモリを割り当て、検索さ
れた質問対についての認識された全ての名詞句を記憶する。
【0169】 与えられたテキストからの(クエリーすなわち対の質問からの)ワードのトー
クン化は、ルーチン909Bを用いて実行される―ここで全てのワードはNLE
190リソースによって使用されるローカル辞書の助けによってトークン化され
る。結果トークン化されたワードはタガールーチン909Cに渡される。ルーチ
ン909Cでは、全てのトークンのタグ付けが行われ、出力がグルーパールーチ
ン909Dへと渡される。
【0170】 NPリストを形成するためのタグ付けされた全てのトークンのグループ化は、
グルーパーがタグ付けされた全てのトークンワードをグループ化して名詞句を出
力するようにルーチン909Dによって実行される。
【0171】 グルーパーリソースオブジェクトの非初期化及びリソースの解放は、ルーチン
909EA、909EB、及び909ECによって実行される。これらはトーク
ンリソース、タガーリソース、グルーパーリソースをそれぞれ含む。初期化後、
リソースは解放される。全ての名詞句を記憶するのに用いられたメモリもまた割
り当てを取り消される。
【0172】 更なる実施例 図13に示される本発明の電子商取引実施例では、ウエブページ130が書籍
131、音楽132などの標準的な可視リンクを有し、適当なリンクをクリック
することで顧客はそれらのページへと案内される。ウエブページは、HTML、
javaアプレット、或いはユーザのブラウザと相互作用する同様のコード付け
技法を用いて実行することができる。例えば、仮に顧客がアルバートというアー
ティストによるアルバムCを購入したいと欲するなら、彼は幾つかのウエブペー
ジを以下のようにして詳しく検討することができる:彼はまず音楽(図13、1
36)をクリックし、それからレコード(図14、145)をクリックする。図
15に示すように、これはレコード155のためのリンクを有する別のウエブペ
ージ150を立ち上げ、下位カテゴリ―アーティスト156、歌157、曲名1
58、ジャンル159を有する。顧客は次に選択範囲のうちからアーティストを
選ぶためにアーティスト156をクリックしなくてはならない。これは図16に
示すように別のウエブページ160を表示する。このページには図示のように様
々なアーティスト165がリストされ―カテゴリ アーティスト165の元にア
ルバート165、ブルックス166、チャーリー167、ホワイト169がリス
トされている。顧客はここで、アルバートで入手可能なアルバムを閲覧するため
にアルバート166をクリックしなくてはならない。これが為されると、別のウ
エブページが図17に示すように表示される。このウエブページ170は再び、
同様な外観及び雰囲気を表すが、見出しタイトル175の元には入手可能なアル
バム176、177、178がリストされている。顧客はまた、各アルバムにつ
いて追加情報179を読むことができる。このアルバム情報は小売店で購入され
る収縮包装されたアルバムの解説書きに類似したものである。一つのアルバムA
が特定されると、顧客はアルバムA176をクリックしなくてはならない。これ
により通常は、その入手可能性、価格、送料及び手数料などについての情報を有
する別のテキストボックスが立ち上がる。
【0173】 ウエブページ130が上述したタイプのNLQSの機能を備えると、ウエブペ
ージは上述したクライアント側及びサーバ側音声認識モジュールと相互作用する
。この場合、ユーザはコンタクト・ミー・フォー・ヘルプ(Contact Me for Hel
p)148と称されるボタン(例えば、これはスクリーン上のリンクボタンであ
ってもよいし、キーボード上のキーであってもよい)を単にクリックすることで
問い合わせを開始することができ、そして必要とする情報を如何に引き出すかを
キャラクタ144に教わる。もしユーザがアルバートというアーティストのアル
バムAを欲するなら、ユーザは煉瓦やモルタルの施設で人間の店員に質問をする
ときと大体同じように「ブルックスのアルバムAはありますか?」と明瞭に発音
する。本発明の迅速な認識性能により、ユーザの質問には、ユーザの自国語で回
答を喋りたてるキャラクタ144からリアルタイムで回答がある。必要であれば
、キャラクタの回答が見え、そしてセーブ/プリントオプションも実行可能なよ
うに、読みやすいワード気球149も表示してよい。ウエブサイトの各ページに
ついて、同様に適当な質問/回答の対を本教示に基づいて構成することができ、
よって顧客は、ウエブサイトの全ての局面において通常会話的、人間的な質疑応
答の対話をエミュレートする環境を供与される。キャラクタ144は、特定の商
業用途に応じて、或いは顧客の体験をより良いものとするために特定の音声スタ
イル(男性、女性、若者、年配者、など)を取るようユーザ自身の好みなどによ
って変更・調整可能である。
【0174】 同様なやり方で、明瞭に発音されたユーザクエリーが従来のサーチエンジンク
エリーの一部として受け取られ、従来のテキストクエリーを用いて為すのと同様
なやり方でインターネット上の興味ある情報を探し出す。仮に適度に近接した質
問/回答の対がサーバ側で得られないなら(例えば仮に、ユーザの質問への適当
な対の一方としてある程度の信頼水準に達しなければ)、ユーザは範囲拡大のオ
プションをあてがわれ、そしてクエリーは同時に多数のサーバに亘る一つ以上の
異なるNLEsへと供与され、好適に合致する質問/回答の対を見出す尤度を向
上させる。さらに、必要であれば、従来のサーチエンジンがユーザの質問へと対
応する多数の潜在的「ヒット」を返すのと同じやり方で、一つ以上の「適合」を
見出すことも可能である。このような質問には、もちろん、リアルタイム動作は
可能とは思われないが(散在的且つ分散的処理が故に)、広範囲な補助的質問/
回答データベースシステムによってもたらされる利点はいくらかのユーザにとっ
ては望ましいであろう。
【0175】 同様に明らかなことには、本発明のNLQSは非常に自然であり、且つユーザ
に、そして電子商取引オペレータにも同様に多くの時間を節約する。電子サポー
ト実施例においては、顧客は、生身の顧客エージェントを必要とせずに、迅速且
つ効率的に情報検索できる。例えば、消費者コンピュータシステムベンダ関連サ
ポートサイトでは、単純な診断用ページが彼/彼女をアシストするための可視サ
ポートキャラクタと共にユーザへと提供される。そしてユーザは「症状」ページ
からアイテム(すなわち、「モニタ」問題、「キーボード」問題、「プリンタ」
問題など)を、サポートキャラクタからの勧めに応じてそのような症状を明瞭に
発音することだけで選択できる。その後システムは、認識された特定の病症に対
して、リアルタイムでユーザをより詳細な下位メニュー、可能性のある解決法な
どへと導く。プログラム可能なキャラクタの使用はこのようにウエブサイトを、
膨大な数のヒット、すなわち顧客を受け入れ可能な規模とすることができ、これ
には対応して人的資源の数を増やす必要及びそれに付随する研修の問題が存在し
ない。
【0176】 更なる実施例として、特定のウエブサイト上での情報検索を本発明のNLQS
を使用して速めることができる。さらに非常に役立つことには、情報は会話とい
う自然なインターフェースを介してユーザフレンドリーな様式で提供される。ウ
エブサイトの大多数は現在、質問または問題に対する回答を得るために通常ユー
ザが一つ一つ取り組む照会頻度の高い質問のリストを採用している。例えば、図
13に示すように、顧客はヘルプ133をクリックしてリスト群とのインターフ
ェースを開始する。図18に示すように、一般的なウエブページ用のウエブサイ
トプランが表示される。これは、照会頻度の高い質問のリストにたどり着くため
に通り過ぎなくてはならないページの数を示している。このページで一度、ユー
ザはスクロールし、彼/彼女の問い合わせと一致する質問を手動で特定しなくて
はならない。この処理は大概骨の折れる仕事でありユーザの問い合わせに答える
情報を出すとも出さないとも限らない。この情報を表示するための現在の技術が
図18に示されている。この図は、一般的なウエブサイトで情報が如何に組織化
されているかを特定しており:ウエブページのホームページ上に通常示されるヘ
ルプリンク(図13、133)は、180として図18に図示されている。再度
図18を参照すると、情報の各下位カテゴリは別のページにリストされている。
例えば、181は、「初めての方に」、「検索情報」、「注文」、「発送」、「
あなたの口座」などの下位トピックスをリストする。他のページは「口座情報」
186、「レートとポリシー」185などを取り扱う別のレベルでは、「初めて
の方に」196、「照会頻度の高い質問」195、「安全購入の保障」194な
どの特定のページ上で下位―下位トピックスのみを取り扱うページがある。よっ
て、もし顧客が照会頻度の高い質問リンクへと行くことで最良の答えを得られる
問い合わせを抱えているなら、彼又は彼女は照会頻度の高い質問ページ195へ
とたどり着くために、3つのレベルの混雑し取り散らかったスクリーンページを
通り過ぎなくてはならない。通常、手動でスクロールし通過しなくてはならない
質問198のリストは多い。視覚的スクロールの間に、顧客は、彼又は彼女の質
問をリストされた各質問と視覚的及び知的に一致させなくてはならない。可能性
のある一致が見出されると、質問はクリックされ、そしてテキスト形式で回答が
現れ、そして読み取られる。
【0177】 これとは対照的に、本NLQSが使用可能なウエブページを用いて質問に対し
て回答を得る処理は、ずっと少ない労力で、効率的に実行可能である。ユーザは
「ヘルプ」(図13、133)とのワードを明瞭に発音する。これは即座にキャ
ラクタ(図13、134)を出現せしめ、「お手伝いしましょうか。あなたの質
問を言ってください?」との友好的な対応をとらせる。顧客が質問を述べると、
キャラクタは活発に振る舞い、或いは「ありがとうございます、答えを持ってす
ぐに戻ってきます。」と返す。短時間(好ましくは、5〜7秒を超えない)が経
過後、キャラクタはユーザの質問に対する回答を喋る。図18に示すように、回
答は会話の形式でユーザへと戻される回答199であり、これは質問195と対
になった回答である。例えば、回答199:「Visa、MasterCard
、Discoverのクレジットカードなら受け取れます。」は問い合わせ20
0「どのような形態の支払いを受け入れるか?」に対する反応である。
【0178】 本発明の別の実施例が図12に示される。このウエブページは、ウエブ基盤の
学習環境においてNLQSを採用した典型的なウエブサイトを示すものである。
図12に示すように、ブラウザ120におけるウエブページは2つ以上のフレー
ムへと分割されている。インストラクタを装うキャラクタ121は画面上で利用
可能であり、マイクロフォンへと「ヘルプ」というワードを喋ること(図13、
134)、又は「会話するにはここをクリックしてください(Click to Speak)
」リンクをクリックすること(図12、128)のいずれかによって学生がクエ
リーモードを開始したときに現れる。するとキャラクタ121は学生を促してド
ロップダウンリスト123からコース122を選択させる。もしユーザがコース
「Cプラスプラス」を選ぶと、キャラクタは口頭で、コース「Cプラスプラス」
が選択されたことを確認する。キャラクタは続いて学生に、そこから質問が利用
可能なチャプタ124のための選択肢を含むドロップダウンリスト125から次
の選択をするように仕向ける。学生が選択後再び、キャラクタ121は会話で選
択を確認する。次に、キャラクタ121は学生を促し、そこから質問が利用可能
なチャプタの「セクション」126をドロップダウンリスト127から選ばせる
。学生が選択後再び、キャラクタ121は選ばれた「セクション」126を明瞭
に発音することで選択を確認する。学生に注意を促すものとして、可能性のある
質問のリストがリストボックス130に現れる。さらに、システムを利用するた
めの情報129が表示される。選択がすべて終わると、学生はキャラクタから以
下のように質問を行うよう促される:「ここであなたの質問をしてください」。
そして学生は彼の質問を喋り、短時間経過後、キャラクタは以下のように質問を
前置した回答で応じる:「あなたの質問・・・・・に対する答えは以下のもので
す:・・・・・・・・」。このやり方は、コースのどの箇所についても質問に対
する解答を学生が迅速に検索できるものとし、指導書の退屈さや引用あるいはイ
ンデックスに取って代わる。すなわちこれは、進行中の質問に答える仮想教師、
すなわちフラッシュカード代替物であることから、多くの用途に役立つ。
【0179】 発明者に入手可能な暫定データから見積もると、システムは100〜250の
質問/回答の対を容易に収容でき、それと同時に上述の構造及び方法を用いてユ
ーザにリアルタイム感覚及び外観(すなわち、待ち時間10秒未満、送信はカウ
ントせず)を提供できる。当然ながら、さらなる処理速度が利用可能となり、ま
た各特定環境に対して言及された様々な構成要素へとルーチン最適化が行われれ
ば、これらの数値が良くなることが期待される。
【0180】 繰り返すが、上記のものは、本発明の数多い可能性ある用途を単に例示したに
すぎず、他の民生用途(知的な双方向おもちゃなど)と同様、より多くのウエブ
基盤企業が本教示を利用することが期待される。ここまで本発明を好ましい実施
の形態に基づいて記述したが、本発明の教示から離れることなく前記実施例に対
して多くの変更・修正を行い得ることは当業者にとって明らかであろう。また、
本発明のより適切な局面を適度に重要視し焦点をあわせるために、本開示の多く
の局面が簡略化されていることも当業者にとって明らかであろう。本発明の方法
を達成するために実行されるマイクロコード及びソフトウエアルーチンは、永久
磁気媒体、非揮発性ROM、CD−ROM、或いは他の好適な機械可読フォーマ
ットにおいて様々な形態で実施可能である。したがって、付随のクレームによっ
て規定されるように、そのような変更・修正のすべてが本発明の範囲及び精神内
に含まれるものとする。
【図面の簡単な説明】
【図1】 図1は本発明の自然語クエリーシステム(NLQS)の好ましい実施の形態の
ブロック図であり、これはクライアント/サーバのコンピュータアーキテクチャ
にわたり分散されており、対話学習システム、電子商取引システム、電子サポー
トシステムなどとして使用可能である。
【図2】 図2はクライアント側システムの好ましい実施の形態のブロック図であり、音
声獲得モジュール、部分的音声処理モジュール、コード化モジュール、伝達モジ
ュール、エージェント制御モジュール、及び回答/音声フィードバックモジュー
ルを含み、これは上記NLQSに使用可能である。 図2−2は図2のクライアント側システムに用いられる初期化ルーチン及び手
続きの組の好ましい実施の形態のブロック図である。
【図3】 図3は図2のクライアント側システムでの発言の繰り返しの組の取り扱いに用
いられるルーチン及び手続きの組の好ましい実施の形態のブロック図であり、遠
く離れたサーバへとそのような発言の音声データを送信し、そのようなサーバか
ら好適な反応を受け取る。
【図4】 図4は図2のクライアント側システムの非初期化に用いられる初期化ルーチン
及び手続きの組の好ましい実施の形態のブロック図である。 図4Aは図5のサーバ側システム用の音声認識モジュールの分散構成要素を実
行するために用いられるルーチン及び手続きの組の好ましい実施の形態のブロッ
ク図である。 図4Bは図5のサーバ側システム用のSQLクエリービルダを実行するために
用いられるルーチン及び手続きの好ましい組のブロック図である。 図4Cは図5のサーバ側システム用のデータベース制御処理モジュールを実行
するために用いられるルーチン及び手続きの組の好ましい実施の形態のブロック
図である。 図4Dは図5のサーバ側システム用に、クエリー構築サポート、クエリー応答
モジュール、及びデータベース制御処理モジュールへとインタフェースを提供す
る自然語エンジンを実行するために用いられるルーチン及び手続きの組の好まし
い実施の形態のブロック図である。
【図5】 図5はサーバ側システムの好ましい実施の形態のブロック図であり、発言の処
理を完了するための音声認識モジュール、環境及び文法制御モジュール、クエリ
ー構築モジュール、自然語エンジン、データベース制御モジュール、及び上記N
LQSで使用可能なクエリー応答モジュールを含む。
【図7】 図7は図5に示すサーバ側システムの一部として用いられる全文データベース
の構成を示す。 図7Aは本発明の対話学習実施例用に、図5に示すサーバ側システムの一部と
して用いられる全文データベースコーステーブルの構成を示す。 図7Bは本発明の対話学習実施例用に、図5に示すサーバ側システムの一部と
して用いられる全文データベースチャプタテーブルの構成を示す。 図7Cは本発明の対話学習実施例用に、図5に示すサーバ側システムの一部と
して用いられるチャプタテーブルで用いられるフィールドを記述する。 図7Dは本発明の対話学習実施例用に、図5に示すサーバ側システムの一部と
して用いられるセクションテーブルで用いられるフィールドを記述する。
【図8】 図8は自然語エンジンの好ましい実施の形態により発言に対してなされる第一
段階の操作のフローダイアグラムであり、トークン化、タグ付け、グループ化を
含む。 図8Aは自然語エンジンの好ましい実施の形態により発言に対してなされる操
作のフローダイアグラムであり、ステム化、字句解析を含む。
【図10】 図10は本発明のSQLデータベースサーチ及びサポートシステムの好ましい
実施の形態のブロック図である。
【図11】 図11A〜Cは図2のNLQSによる質問認識のために実行される好ましい二
段階処理で行われるステップを示すフローダイアグラムである。
【図12】 図12はウエブ基盤の会話基盤学習/訓練システムの一部として実施される本
発明の更なる実施例の説明図である。
【図13】 ウエブ基盤の電子商取引システムの一部として実施される本発明の更なる実施
例の説明図である。
【図14】 ウエブ基盤の電子商取引システムの一部として実施される本発明の更なる実施
例の説明図である。
【図15】 ウエブ基盤の電子商取引システムの一部として実施される本発明の更なる実施
例の説明図である。
【図16】 ウエブ基盤の電子商取引システムの一部として実施される本発明の更なる実施
例の説明図である。
【図17】 ウエブ基盤の電子商取引システムの一部として実施される本発明の更なる実施
例の説明図である。
【図18】 図18は電子商取引ウエブサイト用の音声基盤のヘルプページの一部として実
施される本発明の更なる実施例の説明図である。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/22 G10L 3/00 571T 21/02 3/02 301G (72)発明者 バブ、バンディ ラメッシュ インド、アンドラ プラデッシュ州、アナ ンタプル 515 005、オールド タウン、 プラブハカール ストリート 20/273 (72)発明者 モルクハンディカール、キショール インド、カルナータカ州、グルバルガ 585 102、ジュエルギ ロード、エス.ビ ィ.エッチ. コロニー、シャープ1− 1495/5 (72)発明者 グルラジ、パラキ インド、カルナータカ州、バンガロール 560 024、ヘバール、ユーエイエス クオ ーターズ ビィー7 Fターム(参考) 5B091 CB12 CD03 5D015 CC11 KK02 KK04 5D045 AB01 AB26 【要約の続き】 なる処理が、単一の格納された質問にサーチが所ぼり込 まれる。単一の格納された質問に対応する回答は、次に ファイルパスから検索され、圧縮形式でクライアント (150)に送信される。クライアント(150)にお いて、ユーザのクエリーに対する回答は、彼又は彼女の 自然語によりテキストー音声エンジン(159)を用い ててユーザに対して発声される。システム(100) は、トレーニングを必要とせず、幾つかの自然語により 動作する。

Claims (165)

    【特許請求の範囲】
  1. 【請求項1】 一乃至複数の単語を含む文を含む認識すべき発声音声を示す発声音声信号を受
    信する第一の可聴信号受信ルーチンと、 前記発声音声信号から、前記発声音声データ中の発声された単語の認識を可能
    とするために実質的に不十分なコンテントを持つ第一のデータによって特徴づけ
    られる音声データ値を発生する第一の信号処理ルーチンと、 別のコンピュータシステムによって実行される第二の処理ルーチンに通信チャ
    ンネルを介して送信するのに適したフォーマットに音声データ値をフォーマット
    するフォーマットルーチンとによって構成され、 音声データ値に含まれた前記第一のデータを前記第二の処理ルーチンによって
    使用して前記第一のデータコンテントと組み合わせた時に前記別のコンピュータ
    システムにおいて前記発生音声において発生された単語の認識を完了するために
    十分な追加のデータコンテントを算出することを特徴とする分散音声クエリー認
    識を行うためのコンピュータシステムを補助する機械により実行可能なプログラ
    ム。
  2. 【請求項2】 前記プログラムは、クライアント−サーバベースシステムの一部を構成するコ
    ンピュータシステムによって実行されるブラウザプログラムである請求項1に記
    載のプログラム。
  3. 【請求項3】 前記第一の信号処理ルーチンは、連続的発声音声の流れを取り扱うように構成
    され、各発声音声に関する音声データ値をリアルタイムに発声する請求項1に記
    載のプログラム。
  4. 【請求項4】 前記第一のデータコンテントは、十分に小さく、前記フォーマットルーチンは
    、発声音声に対応して発声される音声データ値の連続した流れをリアルタイムに
    取り扱うことが出来る請求項1に記載のプログラム。
  5. 【請求項5】 前記各音声データ値は、ユーザの発声音声信号の対応する周波数成分に関する
    別のケプストラム計数に対応し、前記第一のデータコンテントは、可聴音声周波
    数範囲に亘る周波数成分に対応する請求項1に記載のプログラム。
  6. 【請求項6】 前記追加のデータコンテントは、対応する前記ケプストラム計数値の組から算
    出されるデルタ及び加速係数の組に対応する請求項5に記載のプログラム。
  7. 【請求項7】 前記追加のデータコンテント、前記追加のデータコンテントが前記第一の信号
    処理ルーチンにより発生された場合に比べて小さい潜時で前記第二の処理ルーチ
    ンにより発生される請求項6に記載のプログラム。
  8. 【請求項8】 前記第一のデータコンテント及び前記追加のデータコンテントの発生に必要な
    信号処理機能は、前記第一及び第二の信号処理ルーチンのそれぞれにおいて利用
    可能な計算リソースに基づいて必要に応じて前記第一の信号処理ルーチンと前記
    第二の信号処理ルーチンに割り当てられる請求項1に記載のプログラム。
  9. 【請求項9】 前記第一の信号処理ルーチンは、ホストコンピュータ、埋め込みプロセッサ及
    び/又はデジタル信号プロセッサ(DSP)のいずれかによって実行される命令
    の組である請求項1に記載のプログラム。
  10. 【請求項10】 前記第一の信号処理ルーチン及び前記第一のオーディオ信号は、デスクトップ
    コンピュータシステム、ポータブルコンピュータシステム、個人用携帯情報端末
    (PDA)、携帯電話及び/又は電子対話型玩具の一部として実行される請求項
    1に記載のプログラム。
  11. 【請求項11】 一乃至複数の単語を含む文を含む認識すべき発声音声を、一連の発生音声評価
    時間フレーム内において示す発生音声を示すユーザ発声音声信号を受信する第一
    の可聴信号受信ルーチンと、 発生音声信号を受信する各発生音声評価時間フレームに関して音声データ値を
    発生する第一の信号処理ルーチンと、 クライアントシステムからサーバコンピュータシステムによって実行される第
    二の処理ルーチンに通信チャンネルを介して送信するのに適したフォーマットに
    音声データ値をフォーマットするフォーマットルーチンとによって構成され、 音声データ値が、前記一乃至複数の単語及び前記文の正確な認識を完了するた
    めに前記第二の処理ルーチンによって使用される最小量の情報で構成されること
    を特徴とするクラーアントシステムと別のサーバシステムに亘って分散された音
    声クエリー認識のための機械により実行可能なプログラム。
  12. 【請求項12】 前記プログラムは、クライアント−サーバベースシステムの一部を構成するコ
    ンピュータシステムによって実行されるブラウザプログラムである請求項11に
    記載のプログラム。
  13. 【請求項13】 前記各音声データ値は、ユーザの発声音声信号の対応する周波数成分に関する
    別のケプストラム計数に対応し、前記第一のデータコンテントは、可聴音声周波
    数範囲に亘る周波数成分に対応する請求項11に記載のプログラム。
  14. 【請求項14】 前記追加のデータコンテントは、対応する前記ケプストラム計数値の組から算
    出されるデルタ及び加速係数の組に対応する請求項13に記載のプログラム。
  15. 【請求項15】 前記第二の処理ルーチンは、前記一乃至複数の単語が前記第一の信号処理ルー
    チンにより発生された場合に比べて小さい潜時で前記一乃至複数の単語の正確な
    認識を行う請求項11に記載のプログラム。
  16. 【請求項16】 発生音声を受信し、関連する発生音声信号を発生するように構成されたサウン
    ド処理回路と、 前記発生音声における発生された単語の認識には自体が不十分である音声デー
    タ値の第一の組を、前記発生音声信号から発生する第一の信号処理回路と、 音声データ値の第一の組をフォーマットし、通信チャンネルを介して第二の信
    号処理回路に送信する送信回路によって構成され、 前記第二の信号処理回路は、前記音声データ値に基づいて音声データ値の第二
    の組を発生するように構成され、音声データ値の第二の組は、前記発生音声内の
    単語を認識するために単語認識エンジンによって使用可能な十分な情報を含んで
    いることを特徴とする分散音声認識システム。
  17. 【請求項17】 前記音声データ値の第二の組は、前記音声データ値の第一の組と音声データ値
    の派生された組を含み、前記音声データ値の派生された組は前記音声データ値の
    第一の組に基づいて計算する請求項16に記載のシステム。
  18. 【請求項18】 前記音声データ値の第一の組は、MFCCベクトル係数であり、前記音声デー
    タ値の派生された組は、前記MFCCベクトル係数から派生するMFCCデルタ
    係数及びMFCC加速係数である請求項17に記載のシステム。
  19. 【請求項19】 前記音声データ値の第二の組は、前記第一の信号処理回路によって前記音声デ
    ータ値の第一の組から前記音声データ値の第二の組を発生するために必要な第一
    の時間と前記音声データ値の第二の組をフォーマットし、送信するために前記送
    信回路が必要とする第二の時間の組み合わせに比べて短い時間で前記第二の信号
    処理回路によって発生される請求項16に記載のシステム。
  20. 【請求項20】 前記音声データの第二の組は、前記音声データ値に第一の組から音声データ値
    を前記第一の信号処理回路によって必要とする時間に比べて短い時間で前記第二
    の信号処理回路によって発生される請求項16に記載のシステム。
  21. 【請求項21】 前記第一及び第二の信号処理回路の信号処理の分担は、前記第一の信号処理回
    路は、前記発生音声信号から単語認識エンジンによって使用可能な形式に変換す
    るために必要な信号処理動作の約1/2未満の処理を行うように割り当てられる
    請求項16に記載のシステム。
  22. 【請求項22】 前記音声データ値の第一及び第二の組を発生するために必要な信号処理機能は
    、前記第一及び第二の信号処理回路のそれぞれが利用可能な計算リソースに基づ
    いて、必要に応じて前記第一の信号処理回路と前記第二の信号処理回路に割り当
    てられる請求項16に記載のシステム。
  23. 【請求項23】 前記音声データ値の第一及び第二の組を発生するために必要な信号処理機能は
    、前記第一及び第二の信号処理回路のそれぞれが利用可能な計算リソースに基づ
    いて、必要に応じて前記第一の信号処理回路と前記第二の信号処理回路に割り当
    てられる請求項16に記載のシステム。
  24. 【請求項24】 前記第一の信号処理回路及び第二の信号処理回路によって行われる信号処理機
    能は、(i)第一及び第二の信号処理回路において使用可能な計算リソース;と
    (ii)前記送信回路の性能特性及び(iii)前記通信チャンネルの送信潜時
    に基づいて構成される請求項16に記載のシステム。
  25. 【請求項25】 前記第一の信号処理回路は、音声データ値の第二の組を発生するために必要な
    信号処理演算によって前記第二の信号処理回路を補助するように構成される請求
    項16に記載のシステム。
  26. 【請求項26】 前記音声データの第一の組は、単語認識処理に使用可能な音声データ値の第二
    の組を発生するために第二の信号処理回路によって使用される最小量のデータを
    示す請求項16に記載のシステム。
  27. 【請求項27】 一乃至複数の発声された単語の発声された文を含む発声音声を受信し、関連す
    る発声音声信号を発声する発声音声補足回路と、 前記発声された文に関して周波数に関連した発声音声信号の組を発声するため
    に前記発声音声信号に対するデータ抽出動作を行うように構成された信号処理を
    行う発声音声信号処理回路と、 サーバに通信チャンネルを通し打て送信するのに適したフォーマットに周波数
    に関連した発声音声信号の組を符号化する送信回路と、 前記一乃至複数の発声された単語の単語認識動作と前記発声された文の文認識
    動作を行うために周波数に関連した発声音声信号の組を用いて前記サーバによっ
    て発生される応答を受信する受信回路とによって構成され、 発生音声信号に関する信号処理の分担をクライアントコンピューティング装置
    とサーバコンピューティング装置間の割り当てを最適化することによって、前記
    音声認識を行うことに関する潜時を最小とすることを特徴とするサーバコンピュ
    ーティング装置と協働して音声認識を行うクライアントコンピューティング装置
    を補助するシステム。
  28. 【請求項28】 一乃至複数の発声された単語の発声された文を含む連続発生音声を受信し、関
    連する発声音声信号を発生する、クライアントコンピューティング装置に一体化
    されたサウンド処理回路と、 クライアントコンピューティング装置によって実行されるように構成され、前
    記発生音声信号から必要に応じて音声に基づくベクトル係数の組を連続的に発生
    するように構成された第一の信号処理ルーチンと、 クライアントコンピューティング装置に結合され、サーバに通信チャンネルを
    通し打て送信するのに適したフォーマットに音声に基づくベクトル係数の組を符
    号化するようの構成され、前記音声に基づくベクトル係数の組が発生音声発生時
    にリアルタイムに送信される送信回路と、 クライアントコンピューティング装置に結合され、サーバから通信チャンネル
    を介して発声された文に対するリアルタイムの回答を受信する受信回路とによっ
    て構成され、 前記応答は、音声に基づくベクトル係数の組を用いて実質的にリアルタイムに
    サーバによって発生されて、一乃至複数の発生された単語の単語認識動作及び前
    記発生された文の文認識動作を完了する第二の信号処理ルーチンを行うことを特
    徴とするサーバコンピューティング装置と協働して音声認識を行うクライアント
    コンピューティング装置を補助するシステム。
  29. 【請求項29】 クライアントコンピューティング装置に連関され、発声音声信号から音声デー
    タ値の第一の組を発生するように構成され、前記音声データ値の第一の組が分散
    認識システムの処理及び送信潜時を減少させるための制限したデータコンテント
    を有している第一の信号処理回路と、 別のサーバコンピューティング装置に関連し、音声データ値の第一の組から音
    声データの第二の組を発生するように構成されるとともに、前記音声データ値の
    第二の組と前記音声データの第一の組で構成された複合音声データ値を発生する
    第二の信号処理回路と、 前記複合音声データを使用し、発生音声の単語の認識を行う単語認識回路によ
    って構成したことを特徴とする発生音声を処理するための分散音声認識システム
  30. 【請求項30】 前記認識された単語を含む発声された文を認識する文認識回路を有する請求項
    29に記載のシステム。
  31. 【請求項31】 前記発声された文は、前記システムによって認識可能な予め定義された多数の
    文の一つを含む、前記発声された文は、該発声された文に対応する予め定義され
    た前記多数の文から可能性のある文の候補の組を識別することによって認識され
    、可能性のある文の候補の組の各エントリを前記発声された文と比較して認識さ
    れた文の一致を判定する請求項30に記載のシステム。
  32. 【請求項32】 前記発声された文は、前記認識された単語上で動作する自然語エンジンである
    請求項31に記載のシステム。
  33. 【請求項33】 前記発声された文は、名詞句を調べることによって可能性のある文の候補の組
    と比較される請求項32に記載のシステム。
  34. 【請求項34】 前記可能性のある文の候補の組は、前記システムのユーザによって与えられた
    動作環境に応じて前記文認識回路によってロードされるコンテックスト辞書によ
    ってある程度決定される請求項31に記載のシステム。
  35. 【請求項35】 音声情報に基づいてシステムによって認識されるべき一乃至複数の単語を格納
    する記憶手段と、 音声情報に対応する音声信号を捕捉する手段と、 ある程度認識された音声データ前記一乃至複数の単語に相関させるにはには不
    十分な前記音声信号の第一の信号処理動作を行う前記音声信号からある程度認識
    されたデータを発生する第一の処理手段と、 前記第一の処理手段と異なり、物理的に分離され、第二の信号処理動作を用い
    て、前記ある程度認識された音声データから一乃至複数の単語に相関された認識
    可能な音声データを発生する第二の処理手段と、 前記第一及び第二の処理手段に結合された非永久データ送信接続と、 前記ある程度認識された音声データを前記第一の処理手段から、前記非永久デ
    ータ送信接続を介して前記第二の処理手段に送信する送信手段とよりなり、 前記音声情報は、前記第一及び第二の信号処理動作に基づいて一乃至複数の単
    語に相関されることを特徴とする音声情報を認識する方法。
  36. 【請求項36】 前記第一の処理手段は、クライアント側に配置され、前記第二の処理手段は、
    遠隔サーバ側に配置される請求項35に記載のシステム。
  37. 【請求項37】 前記記憶手段は、サーバ側に配置される請求項36に記載のシステム。
  38. 【請求項38】 前記非永久接続は、交換された回路又はパケット交換接続である請求項35に
    記載のシステム。
  39. 【請求項39】 非永久接続は、前記第一及び第二の処理手段をリンクするインターネットネッ
    トワークを含んでいる請求項35に記載のシステム。
  40. 【請求項40】 前記非永久接続は、ワイヤレス通信チャンネルである請求項35に記載のシス
    テム。
  41. 【請求項41】 前記第一の信号処理動作は、前記音声信号からスペクトルパラメータベクトル
    抽出する動作を含む請求項35に記載のシステム。
  42. 【請求項42】 前記第一の信号処理動作は、前記スペクトルパラメータベクトルに関するMF
    CC係数を得るためにMel周波数転送処理によりスペクトルパラメータベクト
    ルを分解する動作を含んでいる請求項41に記載のシステム。
  43. 【請求項43】 前記ある程度認識された音声データは、スペクトルパラメータベクトルより得
    られるMFCC係数とデルタ及び加速係数を含む観察ベクトルOtで構成される
    請求項41に記載のシステム。
  44. 【請求項44】 前記ある程度認識された音声データは、観察ベクトルOtを含み、前記第二の
    信号処理動作は、音声データシンボルにより一連の観察ベクトルOtをマッピン
    グするためのビタビ復号動作を含んでいる請求項35に記載のシステム。
  45. 【請求項45】 前記第二の信号処理動作は、前記音声データシンボルを一乃至複数の単語テキ
    ストに変換する変換動作を含んでいる請求項44に記載のシステム。
  46. 【請求項46】 前記第二の処理手段は、一乃至複数の単語のいずれが前記一乃至複数の単語テ
    キストに対応しているかを判定するクエリーを実行する請求項45に記載のシス
    テム。
  47. 【請求項47】 前記第二の処理手段は、一乃至複数の単語テキストのいずれが音声情報に対応
    しているかを判定するための環境変数を用いる請求項35に記載のシステム。
  48. 【請求項48】 (a)認識すべき一乃至複数の単語で構成される文を含む発声音声を示す発生音
    声信号を受信し、 (b)第一のコンピューティング装置を用いて音声データ値を発生するために、
    前記発生音声信号に含まれる一乃至複数の単語をある程度認識し、 (c)音声データ値を前記第一のコンピューティング装置から第二のコンピュー
    ティング装置に送信するのに適当なフォーマットにフォーマットするステップよ
    りなり、 前記音声データ値が、前記第二のコンピューティング装置により一乃至複数の
    単語の完全な認識を完了するのに十分なデータコンテントを含んでいることを特
    徴とする音声認識を行う方法。
  49. 【請求項49】 前記コンテントは、音声データ値の連続ストリームを発生するために前記ある
    程度の認識及びフォーマットをリアルタイムに行えるように十分に小さい請求項
    48に記載の方法。
  50. 【請求項50】 一乃至複数の単語の完全な認識が、完全な認識を前記第一のコンピューティング
    装置をによって行われた場合よりも小さい潜時で行われる請求項48に記載の方
    法。
  51. 【請求項51】 前記ある程度の認識を行うために必要な信号処理は、前記第一及び第二のコン
    ピューティング装置のそれぞれにおいて利用可能な計算リソースに基づいて、必
    要に応じて前記第一のコンピューティング装置と前記第二のコンピューティング
    装置に割り当てる請求項48に記載の方法。
  52. 【請求項52】 前記第一のコンピューティング装置はクライアント側コンピュータシステムの
    一部であり、前記第二のコンピューティング装置はサーバ側コンピュータシステ
    ムの一部であり、前記通信チャンネルがネットワークである請求項48に記載の
    方法。
  53. 【請求項53】 (a)一連の発生音声評価時間フレーム内において、認識すべき一乃至複数の単
    語で構成された文を含む発声音声を示す発生音声信号を受信し、 (b)発生音声信号を受信する各発生音声評価時間フレームにわたり第一の処理
    回路により音声データ値を発生し、 (c)通信チャンネルを介して第二の処理回路を通して送信するのに適したフォ
    ーマットに前記音声データ値を符号化するステップよりなり、 前記音声データ値は、前記一乃至複数の単語及び前記文の完全で正確な認識を
    行うために前記第二の処理回路によって用いることが出来る最小量の情報で構成
    される分散して音声認識を行う方法。
  54. 【請求項54】 前記一乃至複数の単語の認識がリアルタイムで行われる請求項53に記載の方
    法。
  55. 【請求項55】 前記音声データ値はそれぞれ、前記ユーザの発生音声信号の対応する周波数成
    分に関する別のケプストラム係数値に対応し、前記最小量の情報は、可聴音声周
    波数範囲に関するケプストラム係数の組に対応する請求項53に記載の方法。
  56. 【請求項56】 デルタ及び加速係数の組は、一乃至複数の単語及び文の完全な認識のために、
    ケプストラム係数から算出される請求項55に記載の方法。
  57. 【請求項57】 前記第二の処理回路は、前記一乃至複数の単語を前記第一の処理回路により認
    識した場合よりも小さい潜時で、一乃至複数の単語の正確な認識を行う請求項5
    3に記載の方法。
  58. 【請求項58】 (a)第一のコンピューティング装置により発生音声を受信し、 (b)第一のコンピューティング装置により前記発生音声から発生音声信号を発
    生し、 (c)第一のコンピューティング装置において前記発生音声信号から前記発生音
    声の単語の認識を可能にするにはそれ自体では不十分な第一の音声データ値の組
    を発生し、 (d)第一のコンピューティング装置に結合された通信チャンネルの通信プロト
    コルと互換名フォーマットに第一のコンピューティング装置に前記第一の音声デ
    ータ値の組をフォーマットし、 (e)前記第一の音声データ値の組を前記通信チャンネルを介して前記第二のコ
    ンピューティング装置に送信し、 (f)前記音声データ値に基づいて、前記発生音声の単語を錦するために単語認
    識エンジンによって使用するのに十分な情報を含む第二の音声データ値の組を発
    生するステップよりなり、第一のコンピューティング装置と第二のコンピューテ
    ィング装置を用いて分散音声認識を行う方法。
  59. 【請求項59】 前記第二の音声データ値の組は前記第一の音声データ値の組と派生した音声デ
    ータ値の組を含み、前記派生した音声データ値の組は前記第一の音声データ値に
    基づいて計算される請求項58に記載の方法。
  60. 【請求項60】 前記第二の音声データ値の組は、前記第一のコンピューティング装置により前
    記第一の音声データ値の組から前記第二の音声データ値の組を発生するために要
    する第一の時間と前記第二の音声データ値の組をフォーマットし、送信するため
    に必要な第二の時間の組み合わせよりも短い時間で前記第二のコンピューティン
    グ装置により発生される請求項58に記載の方法。
  61. 【請求項61】 前記第一及び第二のコンピューティング装置の信号処理の分担は、前記第一の
    信号処理回路は、前記発生音声信号から単語認識エンジンによって使用可能な形
    式に変換するために必要な信号処理動作の約1/2未満の処理を行うように割り
    当てられる請求項58に記載の方法。
  62. 【請求項62】 前記第一の信号処理回路及び第二の信号処理回路によって行われる信号処理機
    能は、(i)第一及び第二の信号処理回路において使用可能な計算リソース;と
    (ii)前記通信チャンネルの送信潜時に基づいて構成される請求項58に記載
    の方法。
  63. 【請求項63】 前記第一の信号処理回路は、音声データ値の第二の組を発生するために必要な
    信号処理演算によって前記第二の信号処理回路を補助するように構成される請求
    項58に記載の方法。
  64. 【請求項64】 前記音声データの第一の組は、単語認識処理に使用可能な音声データ値の第二
    の組を発生するために第二の信号処理回路によって使用される最小量のデータを
    示す請求項58に記載のシステム。
  65. 【請求項65】 (a)第一のコンピュータシステムにおいて、処理及び送信潜時を減少させるた
    めに制限されたデータコンテントを有する第一の音声データ値の組を発生し、 (b)前記第一のコンピュータシステムとは独立に動作可能な第二のコンピュー
    タシステムのよって前記第一の音声データ値の組から第二の音声データ値の組を
    発生し、 (c)前記第二の音声データ値の組と前記第一の音声データ値の組で構成され組
    み合わされた音声データ値の組を前記第二のコンピュータシステムによって発生
    し、 (d)発生音声内の認識された単語のリストを発生するステップによって構成す
    る発生音声の分散認識を行う方法。
  66. 【請求項66】 (e)前記認識された単語を含む発声された文を認識するステップを含む請求
    項65に記載の方法。
  67. 【請求項67】 前記発声された文は、前記システムによって認識可能な予め定義された多数の
    文の一つを含む、前記発声された文は、該発声された文に対応する予め定義され
    た前記多数の文から可能性のある文の候補の組を識別することによって認識され
    、可能性のある文の候補の組の各エントリを前記発声された文と比較して認識さ
    れた文の一致を判定する請求項66に記載の方法。
  68. 【請求項68】 前記発声された文は、前記認識された単語上で動作する自然語エンジンである
    請求項67に記載の方法。
  69. 【請求項69】 前記発声された文は、名詞句を調べることによって可能性のある文の候補の組
    と比較される請求項68に記載の方法。
  70. 【請求項70】 前記可能性のある文の候補の組は、前記システムのユーザによって与えられた
    動作環境に応じて前記文認識回路によってロードされるコンテックスト辞書によ
    ってある程度決定される請求項67に記載の方法。
  71. 【請求項71】 対応すべき話題に関する音声によるクエリーに応答するように構成された対話型
    学習システムであって、 それぞれが音声による対話型学習システムによりカバーされる一乃至複数の話
    題に関連するクエリーを含む複数の話題のクエリーエントリを格納するクエリー
    ファイルと、 それぞれが一乃至複数の話題のクエリーエントリに対する回答を含む複数の話
    題回答エントリを格納し、各話題のクエリーエントリが少なくとも一つの関連す
    る話題の回答エントリを有している回答ファイルと、 前記話題の一つに関する音声によるクエリーに関連して遠隔音声捕捉システム
    より受信する一部処理された音声データから認識された音声データを発生する音
    声認識システムと、 認識された音声データを音声によるクエリーのに対応する話題クエリーエント
    リを識別するとともに前記音声によるクエリーに最も一致した少なくとも一つの
    回答エントリを探し出すために適当なサーチクエリーに変換するクエリー形成シ
    ステムとによって構成する対話型学習システム。
  72. 【請求項72】 前記遠隔音声捕捉システムは、クライアント側に配置され、前記音声認識シス
    テムはクライアント側及び別のサーバ側に分散して配置される請求項71に記載
    のシステム。
  73. 【請求項73】 クライアント側コンピュータシステムに配置され、前記音声認識システムは、
    音声入力信号に対して第一の信号処理動作を行って一部処理された音声データを
    生成する第一の部分と、サーバ側コンピュータシステムに配置され、前記一部処
    理された音声データの完全な処理のための第二の信号処理動作を行う第二の部分
    により構成される請求項71に記載のシステム。
  74. 【請求項74】 前記クエリー形成システムは、前記音声によるクエリーを解釈するための自然
    語エンジンを含んでいる請求項71に記載のシステム。
  75. 【請求項75】 前記クエリー形成システムは、前記音声によるクエリーの認識のためにコンテ
    ックストパラメータを使用する請求項71に記載のシステム。
  76. 【請求項76】 前記コンテックストパラメータは、対話セッション中にユーザによって選択さ
    れたレッスン情報のコース、章及び/又は項の一以上である請求項75に記載の
    システム。
  77. 【請求項77】 前記コンテックスパラメータは、対話セッション中にユーザに提供された可視
    単語テキストやオブジェクト一以上を含んでいる請求項75に記載のシステム。
  78. 【請求項78】 前記コンテックストパラメータは、前記音声によるクエリーに関して使用する
    のに適した文法及び辞書ファイルを動的に決定し、ロードするために使用される
    請求項75に記載のシステム。
  79. 【請求項79】 前記応答システムは、話題の回答エントリは、可聴形式でユーザに表示される
    ようにテキスト−音声処理を含んでいる請求項78に記載のシステム。
  80. 【請求項80】 第一レベルの教育データと第二レベルの教育データを含む階層構造に配置され
    た教材を含む教育ファイルを有し、 システムのユーザは、階層構造をナビゲートし、少なくとも前記第二レベルの
    教育データに配置された教材に関してユーザのクエリーを形成し、 ユーザのクエリーは対応する応答回答の組と対をなす予め定義された質問の組
    のリストから対応する教材に相関されており、 ユーザのクエリーから認識された音声データを発生する音声認識エンジンと、 前記ユーザの質問に関して対応する教材の質問を特定するとともに前記対応す
    る教材の質問に対する対応する応答を探すためのサーチクエリーに前記認識され
    た音声データを変換するクエリー形成エンジンとを有し、 前記サーチクエリーが前記ユーザクエリーに含まれる解釈する自然語エンジン
    を用いて形成される音声に基づく対話型教育システム。
  81. 【請求項81】 前記自然ご縁人は、前記ユーザのクエリーを一乃至複数の予め定義された質問
    と比較して対応する教材の質問を決定する請求項80に記載のシステム。
  82. 【請求項82】 ユーザのクエリーに対応する予測される質問の組は、前記ユーザのクエリーを
    ある程度認識された予め定義された質問のリストから導き出され、前記対応する
    教材の質問は、ユーザのクエリーを完全に認識することにより導き出される請求
    項80に記載のシステム。
  83. 【請求項83】 前記第一レベルの教育データは、特定のコースのための一乃至複数のレッスン
    章に連関され、前記第二のレベルの教育データは一乃至複数の区分に連関され、
    前記一乃至複数の区分は一乃至複数の小児リンクされている請求項80に記載の
    システム。
  84. 【請求項84】 前記音声認識エンジンの第一の部分は、クライアント側のプラットフォームに
    配置され、前記音声認識エンジンの第二の部分及び前記クエリー形成システムは
    。別のコンピュータシステムに配置される請求項80に記載のシステム。
  85. 【請求項85】 ユーザを補助し教材をナビゲートするとともに対応する回答をユーザに対して
    発生するアニメーションされた可視エージェントを有している請求項80に記載
    のシステム。
  86. 【請求項86】 前記クエリー形成システムは、前記音声によるクエリーを認識するためにコン
    テックストパラメータを使用し、コンテックストパラメータは前記音声によるク
    エリーに関して使用される適切な文法及び辞書ファイルによって動的に決定され
    る請求項80に記載のシステム。
  87. 【請求項87】 質疑応答能力を有する対話型レッスンチュートリアに関してユーザを補助する
    音声によるシステムであって、 前記レッスンのための予め定義された質問のリストと対応する予め定義された
    回答のリストを含むように調製された教材を含むレッスンファイルと、 前記レッスンに付随するユーザの質問から認識された音声データを発生する音
    声認識エンジンと、 認識された音声データを用いて前記ユーザのクエリーに関する対応する予め定
    義された質問を探し出すクエリー認識エンジンと、 前記対応する予め定義された質問に関する対応する予め定義された回答をユー
    ザが知覚出来る形式に変換する変換エンジンとによって構成され、 前記クエリー認識エンジンはユーザのクエリーに対する応答において人間の応
    答時間をエミュレートして、ユーザが、人間と対話したときに経験するのと実質
    的に同じにシステムとの対話を知覚する音声によるシステム。
  88. 【請求項88】 前記システムは、少なくとも100のエントリを持つ予め定義された質問のリ
    ストに関して、ユーザとシステム間のデータ送信潜時を計算に入れずに約10秒
    未満の時間でユーザのクエリーに応答する請求項87に記載のシステム。
  89. 【請求項89】 システムが、前記ユーザのクエリーを受け、これに回答する可視の対話エージ
    ェントを含む請求項87に記載のシステム。
  90. 【請求項90】 前記対話エージェントは、前記レッスンチュートリアルのために適切な対応す
    る人間の外観及び癖をエミュレートする外観及び癖を持つ構成である請求項87
    に記載のシステム。
  91. 【請求項91】 前記クエリー認識エンジンは、前記音声によるクエリーを認識するためにコン
    テックストパラメータを使用し、前記コンテックストパラメータは、前記音声に
    よるクエリーに関して使用する適切な文法及び辞書ファイルを動的に決定しロー
    ドする請求項87に記載のシステム。
  92. 【請求項92】 前記クエリー認識エンジンは、複数のコンピュータシステムに分散されて、前
    記の一よりも多いレッスンファイルが前記ユーザのクエリーに関して参照される
    請求項87に記載のシステム。
  93. 【請求項93】 (a) それぞれが音声による対話型教育システムによってカバーされる一乃至
    複数の話題に関するクエリーを含む複数の話題のクエリーエントリを格納し、 (b)それぞれが前記複数の話題のクエリーエントリが少なくとも一つの関連す
    る話題の回答エントリを有する一乃至複数の前記話題のクエリーエントリに対す
    る回答を含んでいる話題の回答エントリを格納し、 (c)前記認識された音声データ、第一のコンピューティング装置において実行
    される第一の信号処理ルーチンによって前記認識された音声データが発生され、
    次いで第二のコンピューティング装置のよって実行される第二の信号処理ルーチ
    ンによって行われる処理を通して前記音声によるクエリーの認識が完了される要
    領で前記話題の一つに関する音声によるクエリーに関連する認識された音声デー
    タを発生し、 (d)前記音声によるクエリーに対応する話題クエリーエントリを特定する適当
    なサーチクエリーに認識された音声データを変換し、 (e)前記音声によるクエリーに最も一致する一つの回答エントリを検索するス
    テップを含む音声による対話型クエリーシステムの実行方法。
  94. 【請求項94】 前記第一のコンピューティング装置は、クライアント側に配置され、前記第二
    のコンピューティング装置が別のサーバ側に配置される請求項93に記載の方法
  95. 【請求項95】 前記(d)のステップ中に、前記サーチクエリー形成を助けるために、前記自
    然エンジンが前記音声データを処理する請求項93に記載の方法。
  96. 【請求項96】 前記(d)のステップ中に、コンテックストパラメータが前記サーチクエリー
    を形成するために使用され、前記コンテックストパラメータが前記音声によるク
    エリーに関して使用される適切な文法及び辞書ファイルを動的に決定し及びロー
    ドする請求項93に記載の方法。
  97. 【請求項97】 前記音声によるクエリーの応答して、ユーザに話題の回答エントリを送信する
    ステップ(f)を含む請求項93に記載の方法。
  98. 【請求項98】 前記応答は、テキスト−音声処理されて、前記話題の回答エントリは、ユーザ
    に対して可聴形式で表現される請求項97に記載の方法。
  99. 【請求項99】 (a) 第一レベルの教育データと第二レベルの教育データを含む階層構造に配
    置された教材設け、 ユーザに教材を提供して、階層構造をナビゲートし、少なくとも前記第二レベル
    の教育データに配置された教材に関してユーザのクエリーを形成し、 (c)前記第二レベルの教育データに関して質問を予め定義し、前記予め定義さ
    れた質問の組を対応する回答の組と対にし、 (d)ユーザのクエリーから認識された音声データを発生し、 (e) 前記ユーザの質問に関して対応する教材の質問を特定するとともに前記
    対応する教材の質問に対する対応する応答を探すためのサーチクエリーに前記認
    識された音声データを変換し、 (f)対応する教材の質問に関する回答を特定するステップにて構成されるユー
    ザに対して対話型レッスンを提供する方法。
  100. 【請求項100】 前記ステップ(f)中に、前記自然語エンジンは、認識された音声データ及び
    一乃至複数の予め定義された質問のリストに対して動作して、前記対応する教材
    の質問を判定する請求項99に記載の方法。
  101. 【請求項101】 前記ユーザのクエリーをある程度認識することによって前記予め定義された質問
    のリストからユーザのクエリーに対応する予測される質問の組を持ち引き出し、
    次いでユーザのクエリーを完全に認識することにより対応する教材の質問を識別
    するステップ(e)’を有する請求項99に記載の方法。
  102. 【請求項102】 前記第一レベルの教育データは、特定のコースのための一乃至複数のレッスン
    章に連関され、前記第二のレベルの教育データは一乃至複数の区分に連関され、
    前記一乃至複数の区分は一乃至複数の小児リンクされている請求項99に記載の
    方法。
  103. 【請求項103】 ステップ(d)はクライアント側のプラットフォームと別のコンピュータシステ
    ムに分散される請求項99に記載の方法。
  104. 【請求項104】 ユーザを補助し教材をナビゲートするとともに対応する回答をユーザに対して
    発生するアニメーションされた可視エージェントを表示するステップ(g)を有
    する請求項99に記載の方法。
  105. 【請求項105】 前記ステップ(e)中に、前記クエリー形成システムは、前記音声によるクエ
    リーを認識するためにコンテックストパラメータを使用し、コンテックストパラ
    メータは前記音声によるクエリーに関して使用される適切な文法及び辞書ファイ
    ルによって動的に決定される請求項99に記載のシステム。
  106. 【請求項106】 質疑応答能力を有する音声によるレッスンチュートリアを動作させる方法であ
    って、 (a) 前記レッスンのための予め定義された質問のリストと対応する予め定義
    された回答のリストを形成し、 (b) 前記レッスンに付随するユーザの質問から認識された音声データを発生
    し、 (c) 認識された音声データを用いて前記ユーザのクエリーに関する対応する
    予め定義された質問を探し出し、 (d) 前記対応する予め定義された質問に関する対応する予め定義された回答
    をユーザが知覚出来る形式に変換するステップよりなり、 前記クエリー認識エンジンはユーザのクエリーに対する応答において人間の応
    答時間をエミュレートして、ユーザが、人間と対話したときに経験するのと実質
    的に同じにシステムとの対話を知覚する音声によるレッスンチュートリアを動作
    させる方法。
  107. 【請求項107】 前記ステップ(d)中に、少なくとも100のエントリを持つ予め定義された
    質問のリストに関して、ユーザとシステム間のデータ送信潜時を計算に入れずに
    約10秒未満の時間でユーザのクエリーに応答する請求項106に記載の方法。
  108. 【請求項108】 前記ユーザのクエリーを受け、これに回答する可視の対話エージェント表示す
    るステップ(e)を含む請求項106に記載の方法。
  109. 【請求項109】 前記対話エージェントは、前記レッスンチュートリアルのために適切な対応す
    る人間の外観及び癖をエミュレートする外観及び癖を持つ構成である請求項10
    8に記載の方法。
  110. 【請求項110】 ステップ(c)中に、前記音声によるクエリーを認識するためにコンテックス
    トパラメータを使用し、前記コンテックストパラメータは、前記音声によるクエ
    リーに関して使用する適切な文法及び辞書ファイルを動的に決定、ロードする請
    求項106に記載の方法。
  111. 【請求項111】 ステップ(c)中に、複数のコンピュータシステムに分散されて、前記の一よ
    りも多いレッスンファイルが前記ユーザのクエリーに関して参照される請求項1
    06に記載の方法。
  112. 【請求項112】 ユーザの音声によるクエリーに関連する、音声クエリーにおいて発声された
    単語の認識を可能とするには自体実質的に不十分なデータコンテントによって特
    徴付けられる音声データを受信するためにサーバ側コンピュータシステム上にお
    いて実行される受信ルーチンと、 前記音声データと前記データコンテントを用いて前記音声クエリーを完全に認
    識して認識された音声クエリーを発生する音声認識ルーチンと、 前記認識された音声クエリーに基づいてユーザにより選択可能な少なくとも幾
    つかの項目のリストを有するウエブページによって構成されるサーバコンピュー
    タシステム上で動作する音声によるインターネットウエブサイト。
  113. 【請求項113】 前記ウエブページは、前記認識されたクエリーに基づいて一乃至複数の項目の
    追加のリストを表示する請求項112に記載のウエブサイト。
  114. 【請求項114】 前記ウエブサイトは音声クエリーを用いてナビゲートし、ユーザが興味のある
    情報を検索する請求項112に記載のウエブサイト。
  115. 【請求項115】 前記項目のリストは、ウエブサイトが提供する製品及び/又はサービスを含ん
    でいる請求項112に記載のウエブサイト。
  116. 【請求項116】 前記ウエブページは、HTML又はジャバアプレットにより実行される請求項
    に記載112のウエブサイト。
  117. 【請求項117】 前記ウエブサイトは、さらに、テキスト又は発生音声応答により前記項目のリ
    ストに関して音声クエリーに応答するように構成された請求項112に記載のウ
    エブサイト。
  118. 【請求項118】 前記ウエブサイトは、さらに、一乃至複数の連続した音声クエリーに応答して
    リアルタイムの対話に適合されている請求項112に記載のウエブサイト。
  119. 【請求項119】 前記音声人しくルーチンは、追加のデータコンテントをユーザによってクライ
    アントプラットフォームによって発生される場合に比べて小さい潜時で、音声ク
    エリーの認識を完了する請求項112に記載のウエブサイト。
  120. 【請求項120】 前記データコンテントは、前記音声クエリー内の単語と文の正確な認識を完了
    するために音声認識エンジンによって使用できるように最小量の印象で構成され
    る請求項112に記載のウエブサイト。
  121. 【請求項121】 認識された音声クエリーを発生するために必要となる信号処理機能は、クライア
    ント及びサーバのコンピュータシステムのそれぞれの計算リソースに基づいて、
    必要に応じてクライアントプラットフォーム及びサーバコンピュータシステムに
    割り当てられる請求項112に記載のウエブサイト。
  122. 【請求項122】 ウエブサイトは、さらに、音声クエリーの取り扱いに関してユーザを補助する
    対話型キャラクタエージェントを有している請求項112に記載のウエブサイト
  123. 【請求項123】 前記項目のリストは、対話型のレッスンチュートリアルに連関されたトピック
    に対応している請求項112に記載のウエブサイト。
  124. 【請求項124】 ユーザの音声によるクエリーに関連する、音声クエリーにおいて発声された
    単語の認識を可能とするには自体実質的に不十分なデータコンテントによって特
    徴付けられる音声データを受信するためにサーバ側コンピュータシステム上にお
    いて実行される受信ルーチンと、 前記音声データと前記データコンテントを用いて前記音声クエリーを完全に認
    識して認識された音声クエリーを発生する音声認識ルーチンと、 ユーザが選択したインターネットの情報を検索するサーチエンジンを有し、
    前記サーチエンジンは前記認識された音声クエリーから導き出されるテキストク
    エリーを用いるウエブページによって構成されるサーバコンピュータシステム上
    で動作する音声によるインターネットウエブサイト。
  125. 【請求項125】 前記音声クエリーは、二以上のサーバコンピュータシステムによって処理され
    て、複数のサーチエンジンがインターネット情報を検索するために使用される請
    求項124に記載のウエブサイト。
  126. 【請求項126】 前記ウエブページは製品やサーバの問題を診断するためにユーザを補助するよ
    うに一乃至複数の項目のリストを含む、一乃至複数の項目はユーザの音声による
    クエリーにより選択される請求項124に記載のウエブサイト。
  127. 【請求項127】 前記ウエブサイトは前記ウエブサイトと対話してユーザを補助するためのエー
    ジェントを提供し、制御する請求項124に記載のウエブサイト。
  128. 【請求項128】 前記項目のリストは、対話型レッスンチュートリアルに関連する話題に対応す
    る請求項124に記載のウエブサイト。
  129. 【請求項129】 発生音声を用いてウエブサイトと対話するウエブブラウザプログラムを動作可
    能とするシステムであって、 クライアントプラットフォームにおいて発生された発生音声によって連関され
    た音声データを受信し、前記音声データが処理及び送信潜時を減少させるために
    音声データコンテントを制限することによって特徴付けられる受信ルーチンと、 前記音声データと前記データコンテントを用いて前記音声クエリーを完全に認
    識して認識された音声クエリーを発生する音声認識ルーチンと、 一乃至複数のウエブページをウエブブラウザプログラムを提供するウエブペー
    ジルーチンとで構成され、 ユーザによって知覚される前記一乃至複数のウエブページのデータコンテント
    は前記認識された音声クエリーによって制御されるシステム。
  130. 【請求項130】 前記認識された音声クエリーは、一乃至複数の予め定義された前記システムに
    よって認識可能な文を含み、前記音声クエリーは、複数の予め定義された文から
    の予測される文の候補の組を識別することによって認識され、予測される文の候
    補の組の各エントリを前記音声クエリーと比較して認識された文の一致を判定す
    る請求項129に記載のシステム。
  131. 【請求項131】 前記発生音声は、自然語により処理される請求項129に記載のシステム。
  132. 【請求項132】 前記発生音声は、名詞句を調査することにより予測される文の候補の組と比較
    される請求項130に記載のシステム。
  133. 【請求項133】 前記予測される文の候補の組は、前記システムに与えられた動作環境仁王等し
    て前記文認識回路によってロードされたコンテックスト辞書により一部が決定さ
    れる請求項130に記載のシステム。
  134. 【請求項134】 ウエブブラウザプログラム内でユーザが経験する環境変数は、前記音声クエリ
    ーの認識に用いられる請求項130に記載のシステム。
  135. 【請求項135】 前記項目のリストは、対話型レッスンのチュートリアルに連関した話題に対応
    している請求項129に記載のシステム。
  136. 【請求項136】 ユーザのブラウザプログラムを用いてウエブ接続サーバと対話する方法であっ
    て、 (a)クライアントプラットフォームの使用によって発声された発声音声の連関
    された音声を受信し、前記音声データが処理及び送信潜時を減少するために音声
    データを制限することに特徴付けられる、 (b)前記制限された音声データコンテントを用いて前記発声音声の認識を完了
    して、ウエブ接続サーバにおいて認識された音声クエリーを発声し、 (c)一乃至複数のウエブページをユーザウエブブラウザプログラムに与え、ク
    ライアントブラウザプログラムに送信された一乃至複数のウエブページのデータ
    コンテントは前記認識された音声クエリーによって制御されるステップよりなる
    対話方法。
  137. 【請求項137】 クライアントプラットフォームによりブラウザプログラムを介して対話するサ
    ーバに連関された一乃至複数のウエブページの組から情報を提供する方法であっ
    て、 (a)クライアントプラットフォームにおいて発声音声をある程度処理して、制
    限されたデータコンテントの音声データを発生し、前記制限されたデータコンテ
    ントの音声データは、処理及び送信潜時を減少するように構成され、 (b)前記制限された音声データコンテントを用いて発生音声の処理を完了して
    、サーバにおいて認識された音声クエリーを発生し、 (c) 認識された音声クエリーの制御のもとに一乃至複数のウエブページの組
    に対するコンテントをブラウザプログラムに提供するステップによって構成した
    情報提供方法。
  138. 【請求項138】 発生された発生音声から認識された単語を発生する音声認識エンジンと、 認識された単語を言語学的に処理して前記発声された発声音声に関するサーチ
    述語を発声する自然語エンジンと、 認識された単語とサーチ述語を前記発声された発声音声に関する一乃至複数の
    対応する認識された一致を検索するのに適した構成されたクエリーに変換するク
    エリー形成エンジンとよりなり、 前記自然語エンジンは、前記一乃至複数の認識された一致の組を言語学的に処
    理して前記発声された発声音声に関する最終的な一致を決定するように構成した
    音声クエリー認識システム。
  139. 【請求項139】 前記クエリー形成エンジンは、前記認識された単語のみを使用する第一レベル
    のクエリーを発声し、サーチ述語を用いて前記第一レベルのクエリーをカスタマ
    イズして第二レベルのクエリーを発声する請求項138に記載のシステム。
  140. 【請求項140】 前記自然語は、前記クエリー形成エンジンが前記第一レベルのクエリーを発声
    している時に、前記サーチ述語を発声する請求項139に記載のシステム。
  141. 【請求項141】 前記音声認識エンジンは、単語を認識するためにコンテックストに特定の辞書
    の組を用いる請求項138に記載のシステム。
  142. 【請求項142】 前記自然語エンジンは、コンテックストパラメータを用いて、前記サーチ述語
    を発声する請求項138に記載のシステム。
  143. 【請求項143】 前記音声認識エンジン、前記自然語エンジン及び前記クエリー形成エンジンは
    、サーバコンピュータシステムにおいて実行されるルーチンとして実施される請
    求項138に記載のシステム。
  144. 【請求項144】 前記言語学的処理は、前記発声音声中の名詞句を判定する動作を含む請求項1
    38に記載のシステム。
  145. 【請求項145】 前記自然語エンジンは、前記予測された一致の組の名詞句を前記発声音声の名
    詞句と比較して最終の一致を決定する請求項138に記載のシステム。
  146. 【請求項146】 前記最終一致は、リアルタイムで決定される請求項138に記載のシステム。
  147. 【請求項147】 前記発声音声は、100以上の対応した予測される一致の一つに対応し、前記
    最終一致は前記発声音声に対する発声される回答を10秒未満で決定するために
    使用される請求項146に記載のシステム。
  148. 【請求項148】 前記音声認識は、クライアント−サーバアーキテクチャにわたって分散されて
    いる請求項138に記載のシステム。
  149. 【請求項149】 前記クライアントは、認識潜時を減少させるように最適化された音声データ量
    を発声する請求項148に記載のシステム。
  150. 【請求項150】 前記認識された発声音声がウエブページの制御に使用される請求項138に記
    載のシステム。
  151. 【請求項151】 前記構成されたクエリーはSQLサーチ述語を含む全文クエリーである請求項
    138に記載のシステム。
  152. 【請求項152】 前記対応する予測される一致は、検索潜時を減少させるために非同期状態で交
    信されるリレーショナルデータベースから検索される請求項138に記載のシス
    テム。
  153. 【請求項153】 音声認識ルーチンにより認識される発声音声に含まれるテキストを受信し、前
    記テキストの第一の言語学的分析を発声するテキスト解釈ルーチンを有し、 前記言語学的分析は、前記発声音声に関する予測される一致の候補の組を識別
    するために使用され、 前記テキスト解釈ルーチンは、 (i)前記予測される一致の候補の組に含まれるテキストの一乃至複数の第二の
    言語学的分析を発生し、 (ii)前記第一の言語学的分析を前記一乃至複数の第二の言語学的分析のそれ
    ぞれと比較して、前記発生音声に対する最良の一致を識別する 発生音声の認識を補助するとうに構成された自然語処理システム。
  154. 【請求項154】 前記テキスト解釈ルーチンは、コンピュータシステムにおいて実行されるソフ
    トウエアルーチンにより実施される請求項153に記載のシステム。
  155. 【請求項155】 前記テキスト解釈ルーチンは、DSP及び関連する実行可能なコードにより実
    施される請求項153に記載のシステム。
  156. 【請求項156】 前記言語学的処理は、名詞句を判定する動作を含む請求項153に記載のシス
    テム。
  157. 【請求項157】 前記最良一致は、一乃至複数の予測される一致の候補の前記発生音声と共通の
    名詞句の数が最大であるの一つに対応している請求項156に記載のシステム。
  158. 【請求項158】 前記名詞句は判定され、タグ付けされ、グループ化されたトークンに分化して
    発生される請求項155に記載のシステム。
  159. 【請求項159】 (a)発声された発声音声内のテキストを認識し、 (b)前記発声された発声音声に関するサーチ述語を発声するために前記認識さ
    れたテキストを言語学的に処理し、 (c)前記発声音声に関して予測される一致を識別するためにクエリーを発生し
    、前記クエリーが認識されたテキストとサーチ述語に基づいており、 (d)前記クエリーにより識別された全ての予測される一致を前記発声された発
    声音声と言語学的に比較して前記発声された発声音声に対す最終的一致を判定す
    るステップによって構成される音声クエリーに認識方法。
  160. 【請求項160】 最終的一致に一致する応答を検索し、一致する応答を可聴形式で提供するステ
    ップ(e)をさらに有する請求項159に記載の方法。
  161. 【請求項161】 前記ステップ(b)及び(c)は時間的にオーバーラップしている請求項15
    9に記載の方法。
  162. 【請求項162】 ステップ(c)は前記認識されたテキストに基づいて一次クエリーを発生する
    ステップ(c)’と前記一次クエリーと前記サーチ述語に基づいて最終クエリー
    を発生するステップ(c)”の二つのサブステップを有する請求項161に記載
    の方法。
  163. 【請求項163】 前記最終一致は、発声音声の名詞句と前記予測される一致を比較することによ
    り決定される請求項159に記載の方法。
  164. 【請求項164】 ステップ(a)はクライアント装置とサーバ装置を含む分散コンピューティン
    グプラットフォームに亘って生じる請求項159に記載の方法。
  165. 【請求項165】 ステップ(a)乃至(d)は、単一のクライアント装置からの発声音声仁王等
    して複数のサーバ装置わたって同時に行われる請求項159に記載の方法。
JP2001537046A 1999-11-12 2000-11-10 分散型リアルタイム音声認識装置 Expired - Fee Related JP4987203B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/439,145 US6633846B1 (en) 1999-11-12 1999-11-12 Distributed realtime speech recognition system
US09/439,145 1999-11-12
PCT/US2000/030918 WO2001035391A1 (en) 1999-11-12 2000-11-10 Distributed real time speech recognition system

Publications (2)

Publication Number Publication Date
JP2003517158A true JP2003517158A (ja) 2003-05-20
JP4987203B2 JP4987203B2 (ja) 2012-07-25

Family

ID=23743469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001537046A Expired - Fee Related JP4987203B2 (ja) 1999-11-12 2000-11-10 分散型リアルタイム音声認識装置

Country Status (6)

Country Link
US (1) US6633846B1 (ja)
EP (1) EP1245023B1 (ja)
JP (1) JP4987203B2 (ja)
AT (1) ATE500587T1 (ja)
DE (1) DE60045690D1 (ja)
WO (1) WO2001035391A1 (ja)

Cited By (181)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350090A (ja) * 2005-06-17 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> クライアント・サーバ音声認識方法、サーバ計算機での音声認識方法、音声特徴量抽出・送信方法、これらの方法を用いたシステム、装置、プログラムおよび記録媒体
JP2010522936A (ja) * 2007-03-29 2010-07-08 アマゾン テクノロジーズ インコーポレイテッド ユーザ装置上の複数のコンテンツソースの検索
US8352272B2 (en) 2008-09-29 2013-01-08 Apple Inc. Systems and methods for text to speech synthesis
US8352268B2 (en) 2008-09-29 2013-01-08 Apple Inc. Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
US8364694B2 (en) 2007-10-26 2013-01-29 Apple Inc. Search assistant for digital media assets
US8380507B2 (en) 2009-03-09 2013-02-19 Apple Inc. Systems and methods for determining the language to use for speech generated by a text to speech engine
US8396714B2 (en) 2008-09-29 2013-03-12 Apple Inc. Systems and methods for concatenation of words in text to speech synthesis
US8458278B2 (en) 2003-05-02 2013-06-04 Apple Inc. Method and apparatus for displaying information during an instant messaging session
US8527861B2 (en) 1999-08-13 2013-09-03 Apple Inc. Methods and apparatuses for display and traversing of links in page character array
US8543407B1 (en) 2007-10-04 2013-09-24 Great Northern Research, LLC Speech interface system and method for control and interaction with applications on a computing system
US8583418B2 (en) 2008-09-29 2013-11-12 Apple Inc. Systems and methods of detecting language and natural language strings for text to speech synthesis
US8600743B2 (en) 2010-01-06 2013-12-03 Apple Inc. Noise profile determination for voice-related feature
US8620662B2 (en) 2007-11-20 2013-12-31 Apple Inc. Context-aware unit selection
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8656040B1 (en) 2007-05-21 2014-02-18 Amazon Technologies, Inc. Providing user-supplied items to a user device
US8660849B2 (en) 2010-01-18 2014-02-25 Apple Inc. Prioritizing selection criteria by automated assistant
US8670985B2 (en) 2010-01-13 2014-03-11 Apple Inc. Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts
US8682649B2 (en) 2009-11-12 2014-03-25 Apple Inc. Sentiment prediction from textual data
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8688446B2 (en) 2008-02-22 2014-04-01 Apple Inc. Providing text input using speech data and non-speech data
US8706472B2 (en) 2011-08-11 2014-04-22 Apple Inc. Method for disambiguating multiple readings in language conversion
US8713119B2 (en) 2008-10-02 2014-04-29 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US8712776B2 (en) 2008-09-29 2014-04-29 Apple Inc. Systems and methods for selective text to speech synthesis
US8718047B2 (en) 2001-10-22 2014-05-06 Apple Inc. Text to speech conversion of text messages from mobile communication devices
US8719014B2 (en) 2010-09-27 2014-05-06 Apple Inc. Electronic device with text error correction based on voice recognition data
US8719006B2 (en) 2010-08-27 2014-05-06 Apple Inc. Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis
US8725565B1 (en) 2006-09-29 2014-05-13 Amazon Technologies, Inc. Expedited acquisition of a digital item following a sample presentation of the item
US8762156B2 (en) 2011-09-28 2014-06-24 Apple Inc. Speech recognition repair using contextual information
US8775442B2 (en) 2012-05-15 2014-07-08 Apple Inc. Semantic search using a single-source semantic model
US8781836B2 (en) 2011-02-22 2014-07-15 Apple Inc. Hearing assistance system for providing consistent human speech
US8793575B1 (en) 2007-03-29 2014-07-29 Amazon Technologies, Inc. Progress indication for a digital work
US8812294B2 (en) 2011-06-21 2014-08-19 Apple Inc. Translating phrases from one language into another using an order-based set of declarative rules
US8832584B1 (en) 2009-03-31 2014-09-09 Amazon Technologies, Inc. Questions on highlighted passages
US8898568B2 (en) 2008-09-09 2014-11-25 Apple Inc. Audio user interface
US8935167B2 (en) 2012-09-25 2015-01-13 Apple Inc. Exemplar-based latent perceptual modeling for automatic speech recognition
US8954444B1 (en) 2007-03-29 2015-02-10 Amazon Technologies, Inc. Search and indexing on a user device
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US9053089B2 (en) 2007-10-02 2015-06-09 Apple Inc. Part-of-speech tagging using latent analogy
US9087032B1 (en) 2009-01-26 2015-07-21 Amazon Technologies, Inc. Aggregation of highlights
US9116657B1 (en) 2006-12-29 2015-08-25 Amazon Technologies, Inc. Invariant referencing in digital works
US9158741B1 (en) 2011-10-28 2015-10-13 Amazon Technologies, Inc. Indicators for navigating digital works
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9275052B2 (en) 2005-01-19 2016-03-01 Amazon Technologies, Inc. Providing annotations of a digital work
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
KR20160032564A (ko) * 2014-09-16 2016-03-24 삼성전자주식회사 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
US9311043B2 (en) 2010-01-13 2016-04-12 Apple Inc. Adaptive audio feedback system and method
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9330381B2 (en) 2008-01-06 2016-05-03 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9389729B2 (en) 2005-09-30 2016-07-12 Apple Inc. Automated response to and sensing of user activity in portable devices
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
USRE46139E1 (en) 2008-03-04 2016-09-06 Apple Inc. Language input interface on a device
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9495322B1 (en) 2010-09-21 2016-11-15 Amazon Technologies, Inc. Cover display
US9501741B2 (en) 2005-09-08 2016-11-22 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US9564089B2 (en) 2009-09-28 2017-02-07 Amazon Technologies, Inc. Last screen rendering for electronic book reader
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9672533B1 (en) 2006-09-29 2017-06-06 Amazon Technologies, Inc. Acquisition of an item based on a catalog presentation of items
US9691383B2 (en) 2008-09-05 2017-06-27 Apple Inc. Multi-tiered voice feedback in an electronic device
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9733821B2 (en) 2013-03-14 2017-08-15 Apple Inc. Voice control to diagnose inadvertent activation of accessibility features
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9946706B2 (en) 2008-06-07 2018-04-17 Apple Inc. Automatic language identification for dynamic text processing
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US9977779B2 (en) 2013-03-14 2018-05-22 Apple Inc. Automatic supplementation of word correction dictionaries
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US10019994B2 (en) 2012-06-08 2018-07-10 Apple Inc. Systems and methods for recognizing textual identifiers within a plurality of words
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10078487B2 (en) 2013-03-15 2018-09-18 Apple Inc. Context-sensitive handling of interruptions
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
JP2018160232A (ja) * 2016-12-09 2018-10-11 ザ・ボーイング・カンパニーThe Boeing Company 対話形式で認知する作業支援システム及び方法
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10446167B2 (en) 2010-06-04 2019-10-15 Apple Inc. User-specific noise suppression for voice quality improvements
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10515147B2 (en) 2010-12-22 2019-12-24 Apple Inc. Using statistical language models for contextual lookup
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10540976B2 (en) 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10572476B2 (en) 2013-03-14 2020-02-25 Apple Inc. Refining a search based on schedule items
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10607141B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10642574B2 (en) 2013-03-14 2020-05-05 Apple Inc. Device, method, and graphical user interface for outputting captions
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10672399B2 (en) 2011-06-03 2020-06-02 Apple Inc. Switching between text data and audio data based on a mapping
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10791216B2 (en) 2013-08-06 2020-09-29 Apple Inc. Auto-activating smart responses based on activities from remote devices
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
JP2021507315A (ja) * 2018-01-23 2021-02-22 グーグル エルエルシーGoogle LLC 呼び出しフレーズの検出における雑音低減技術の選択的適応および利用
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US11151899B2 (en) 2013-03-15 2021-10-19 Apple Inc. User training by intelligent digital assistant
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US11599332B1 (en) 2007-10-04 2023-03-07 Great Northern Research, LLC Multiple shell multi faceted graphical user interface

Families Citing this family (191)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6154445A (en) 1996-04-18 2000-11-28 Bell Atlantic Network Services, Inc. Telephony communication via varied redundant networks
US6069890A (en) 1996-06-26 2000-05-30 Bell Atlantic Network Services, Inc. Internet telephone service
US6078582A (en) 1996-12-18 2000-06-20 Bell Atlantic Network Services, Inc. Internet long distance telephone service
US6137869A (en) 1997-09-16 2000-10-24 Bell Atlantic Network Services, Inc. Network session management
US6574216B1 (en) 1997-03-11 2003-06-03 Verizon Services Corp. Packet data network voice call quality monitoring
US7406084B2 (en) * 1997-09-19 2008-07-29 Nokia Siemens Networks Gmbh & Co. Kg Flexible software architecture for a call processing system
US7720682B2 (en) 1998-12-04 2010-05-18 Tegic Communications, Inc. Method and apparatus utilizing voice input to resolve ambiguous manually entered text input
US8938688B2 (en) 1998-12-04 2015-01-20 Nuance Communications, Inc. Contextual prediction of user words and user actions
US7712053B2 (en) 1998-12-04 2010-05-04 Tegic Communications, Inc. Explicit character filtering of ambiguous text entry
US7679534B2 (en) 1998-12-04 2010-03-16 Tegic Communications, Inc. Contextual prediction of user words and user actions
US7319957B2 (en) * 2004-02-11 2008-01-15 Tegic Communications, Inc. Handwriting and voice input with automatic correction
US7881936B2 (en) * 1998-12-04 2011-02-01 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
US7050977B1 (en) 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
US9076448B2 (en) 1999-11-12 2015-07-07 Nuance Communications, Inc. Distributed real time speech recognition system
US7725307B2 (en) 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
US20030182113A1 (en) * 1999-11-22 2003-09-25 Xuedong Huang Distributed speech recognition for mobile communication devices
JP2001197379A (ja) * 2000-01-05 2001-07-19 Matsushita Electric Ind Co Ltd 機器設定装置、機器設定システムおよび機器設定処理プログラムを記録した記録媒体
US20010047261A1 (en) * 2000-01-24 2001-11-29 Peter Kassan Partially automated interactive dialog
US6721705B2 (en) 2000-02-04 2004-04-13 Webley Systems, Inc. Robust voice browser system and voice activated device controller
US6757362B1 (en) * 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
WO2001091105A2 (en) * 2000-05-23 2001-11-29 Pocketscript, Inc. Wireless voice recognition data retrieval system and method
US7047196B2 (en) 2000-06-08 2006-05-16 Agiletv Corporation System and method of voice recognition near a wireline node of a network supporting cable television and/or video delivery
ATE454778T1 (de) * 2000-06-30 2010-01-15 Alcatel Lucent Telekommunikationsvorrichtung , vermittlung , server und verfahren
EP1304682A1 (en) * 2000-07-05 2003-04-23 Alcatel Distributed speech recognition system
US8706747B2 (en) * 2000-07-06 2014-04-22 Google Inc. Systems and methods for searching using queries written in a different character-set and/or language from the target pages
AU2001271940A1 (en) * 2000-07-28 2002-02-13 Easyask, Inc. Distributed search system and method
US7464033B2 (en) * 2000-07-31 2008-12-09 Texas Instruments Incorporated Decoding multiple HMM sets using a single sentence grammar
US6990179B2 (en) * 2000-09-01 2006-01-24 Eliza Corporation Speech recognition method of and system for determining the status of an answered telephone during the course of an outbound telephone call
CN1404603A (zh) * 2000-09-07 2003-03-19 皇家菲利浦电子有限公司 语音控制及加载的用户控制信息
DE10046359A1 (de) * 2000-09-20 2002-03-28 Philips Corp Intellectual Pty Dialogsystem
US6915262B2 (en) 2000-11-30 2005-07-05 Telesector Resources Group, Inc. Methods and apparatus for performing speech recognition and using speech recognition results
US8135589B1 (en) 2000-11-30 2012-03-13 Google Inc. Performing speech recognition over a network and using speech recognition results
US6823306B2 (en) * 2000-11-30 2004-11-23 Telesector Resources Group, Inc. Methods and apparatus for generating, updating and distributing speech recognition models
US8095370B2 (en) 2001-02-16 2012-01-10 Agiletv Corporation Dual compression voice recordation non-repudiation system
JP2002278977A (ja) * 2001-03-22 2002-09-27 Fujitsu Ltd 質問回答装置、質問回答方法及び質問回答プログラム
US20020138274A1 (en) * 2001-03-26 2002-09-26 Sharma Sangita R. Server based adaption of acoustic models for client-based speech systems
US6785647B2 (en) * 2001-04-20 2004-08-31 William R. Hutchison Speech recognition system with network accessible speech processing resources
US7200556B2 (en) * 2001-05-22 2007-04-03 Siemens Communications, Inc. Methods and apparatus for accessing and processing multimedia messages stored in a unified multimedia mailbox
US6934675B2 (en) * 2001-06-14 2005-08-23 Stephen C. Glinski Methods and systems for enabling speech-based internet searches
US7260607B2 (en) * 2001-08-02 2007-08-21 Siemens Communications, Inc. Methods and apparatus for performing media/device sensitive processing of messages stored in unified multimedia and plain text mailboxes
US20030028603A1 (en) * 2001-08-02 2003-02-06 Siemens Information And Communication Networks, Inc. Methods and apparatus for automatically summarizing messages stored in a unified multimedia mailboxes
US20030033144A1 (en) * 2001-08-08 2003-02-13 Apple Computer, Inc. Integrated sound input system
US7389307B2 (en) * 2001-08-09 2008-06-17 Lycos, Inc. Returning databases as search results
US20030055649A1 (en) * 2001-09-17 2003-03-20 Bin Xu Methods for accessing information on personal computers using voice through landline or wireless phones
US7483832B2 (en) * 2001-12-10 2009-01-27 At&T Intellectual Property I, L.P. Method and system for customizing voice translation of text to speech
US20060069567A1 (en) * 2001-12-10 2006-03-30 Tischer Steven N Methods, systems, and products for translating text to speech
US7493259B2 (en) * 2002-01-04 2009-02-17 Siebel Systems, Inc. Method for accessing data via voice
US7194069B1 (en) 2002-01-04 2007-03-20 Siebel Systems, Inc. System for accessing data via voice
JP2003295890A (ja) * 2002-04-04 2003-10-15 Nec Corp 音声認識対話選択装置、音声認識対話システム、音声認識対話選択方法、プログラム
JP2003308283A (ja) * 2002-04-18 2003-10-31 Mitsubishi Electric Corp 通信装置、通信方法及び車載用ナビゲーション装置
US6877001B2 (en) * 2002-04-25 2005-04-05 Mitsubishi Electric Research Laboratories, Inc. Method and system for retrieving documents with spoken queries
US7398209B2 (en) 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US8583440B2 (en) 2002-06-20 2013-11-12 Tegic Communications, Inc. Apparatus and method for providing visual indication of character ambiguity during text entry
DE10229207B3 (de) * 2002-06-28 2004-02-05 T-Mobile Deutschland Gmbh Verfahren zur natürlichen Spracherkennung auf Basis einer Generativen Transformations-/Phrasenstruktur-Grammatik
US7177816B2 (en) * 2002-07-05 2007-02-13 At&T Corp. System and method of handling problematic input during context-sensitive help for multi-modal dialog systems
US7177815B2 (en) * 2002-07-05 2007-02-13 At&T Corp. System and method of context-sensitive help for multi-modal dialog systems
US7693720B2 (en) 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
US7379421B1 (en) * 2002-07-23 2008-05-27 At&T Delaware Intellectual Property, Inc. System and method for forwarding messages
US7016845B2 (en) * 2002-11-08 2006-03-21 Oracle International Corporation Method and apparatus for providing speech recognition resolution on an application server
DE10256935A1 (de) * 2002-12-05 2004-07-01 Siemens Ag Auswahl der Benutzersprache an einem rein akustisch gesteuerten Telefon
US7684985B2 (en) * 2002-12-10 2010-03-23 Richard Dominach Techniques for disambiguating speech input using multimodal interfaces
US7076428B2 (en) * 2002-12-30 2006-07-11 Motorola, Inc. Method and apparatus for selective distributed speech recognition
US7369988B1 (en) * 2003-02-24 2008-05-06 Sprint Spectrum L.P. Method and system for voice-enabled text entry
FR2853127A1 (fr) * 2003-03-25 2004-10-01 France Telecom Systeme de reconnaissance de parole distribuee
US7711568B2 (en) * 2003-04-03 2010-05-04 At&T Intellectual Property Ii, Lp System and method for speech recognition services
US8014768B2 (en) 2003-04-30 2011-09-06 Disney Enterprises, Inc. Mobile phone multimedia controller
US8666983B2 (en) * 2003-06-13 2014-03-04 Microsoft Corporation Architecture for generating responses to search engine queries
US7051014B2 (en) * 2003-06-18 2006-05-23 Microsoft Corporation Utilizing information redundancy to improve text searches
US20050038647A1 (en) * 2003-08-11 2005-02-17 Aurilab, Llc Program product, method and system for detecting reduced speech
WO2005029289A2 (en) * 2003-09-18 2005-03-31 Agile Tv Corporation Dual compression voice recordation non-repudiation system
JP2005101931A (ja) * 2003-09-25 2005-04-14 Fuji Photo Film Co Ltd 画像プリント装置
US20060031853A1 (en) * 2003-10-10 2006-02-09 Metaphor Solutions, Inc. System and method for optimizing processing speed to run multiple dialogs between multiple users and a virtual agent
GB0328035D0 (en) * 2003-12-03 2004-01-07 British Telecomm Communications method and system
US7660400B2 (en) 2003-12-19 2010-02-09 At&T Intellectual Property Ii, L.P. Method and apparatus for automatically building conversational systems
US7570746B2 (en) 2004-03-18 2009-08-04 Sony Corporation Method and apparatus for voice interactive messaging
US8095364B2 (en) 2004-06-02 2012-01-10 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US8972444B2 (en) 2004-06-25 2015-03-03 Google Inc. Nonstandard locality-based text entry
US8392453B2 (en) 2004-06-25 2013-03-05 Google Inc. Nonstandard text entry
KR100695127B1 (ko) * 2004-10-08 2007-03-14 삼성전자주식회사 다 단계 음성 인식 장치 및 방법
JP4802489B2 (ja) * 2004-12-07 2011-10-26 日本電気株式会社 音データ提供システムおよびその方法
US7752048B2 (en) 2005-05-27 2010-07-06 Oracle International Corporation Method and apparatus for providing speech recognition resolution on a database
US20060288225A1 (en) * 2005-06-03 2006-12-21 Jung Edward K User-centric question and answer for authentication and security
EP1899952A4 (en) * 2005-07-07 2009-07-22 Enable Inc V SYSTEM AND METHOD FOR SEARCHING CONTENT ON A NETWORK IN A MULTIMODAL SYSTEM FROM VOCAL KEYWORDS
US7640160B2 (en) 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7620549B2 (en) 2005-08-10 2009-11-17 Voicebox Technologies, Inc. System and method of supporting adaptive misrecognition in conversational speech
US7949529B2 (en) 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
EP1934971A4 (en) * 2005-08-31 2010-10-27 Voicebox Technologies Inc DYNAMIC LANGUAGE SCRIPTURE
US8433041B2 (en) 2005-09-23 2013-04-30 Bce Inc. Method and system to enable touch-free incoming call handling and touch-free outgoing call origination
CA2571009C (en) * 2005-09-23 2010-10-05 Bce Inc. Methods and systems for touch-free call origination
US20070073745A1 (en) * 2005-09-23 2007-03-29 Applied Linguistics, Llc Similarity metric for semantic profiling
WO2007033458A1 (en) * 2005-09-23 2007-03-29 Bce Inc. Methods and systems for touch-free call handling
US20070078708A1 (en) * 2005-09-30 2007-04-05 Hua Yu Using speech recognition to determine advertisements relevant to audio content and/or audio content relevant to advertisements
US8620667B2 (en) * 2005-10-17 2013-12-31 Microsoft Corporation Flexible speech-activated command and control
JP4865324B2 (ja) * 2005-12-26 2012-02-01 キヤノン株式会社 情報処理装置及び情報処理装置の制御方法
US20070162282A1 (en) * 2006-01-09 2007-07-12 Gilad Odinak System and method for performing distributed speech recognition
US7599861B2 (en) 2006-03-02 2009-10-06 Convergys Customer Management Group, Inc. System and method for closed loop decisionmaking in an automated care system
US20090112828A1 (en) * 2006-03-13 2009-04-30 Answers Corporation Method and system for answer extraction
US7809663B1 (en) 2006-05-22 2010-10-05 Convergys Cmg Utah, Inc. System and method for supporting the utilization of machine language
US8379830B1 (en) 2006-05-22 2013-02-19 Convergys Customer Management Delaware Llc System and method for automated customer service with contingent live interaction
KR20080002081A (ko) * 2006-06-30 2008-01-04 삼성전자주식회사 VoIP를 이용한 화상통신장치 및 그 운용방법
US20080031475A1 (en) 2006-07-08 2008-02-07 Personics Holdings Inc. Personal audio assistant device and method
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7823138B2 (en) * 2006-11-14 2010-10-26 Microsoft Corporation Distributed testing for computing features
US20080154870A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Collection and use of side information in voice-mediated mobile search
US20080154612A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Local storage and use of search results for voice-enabled mobile communications devices
US20080153465A1 (en) 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Voice search-enabled mobile device
US20080154608A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. On a mobile device tracking use of search results delivered to the mobile device
EP2130359A2 (en) * 2006-12-26 2009-12-09 Voice Signal Technologies Inc. Integrated voice search commands for mobile communications devices
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
US20080201158A1 (en) 2007-02-15 2008-08-21 Johnson Mark D System and method for visitation management in a controlled-access environment
US8542802B2 (en) 2007-02-15 2013-09-24 Global Tel*Link Corporation System and method for three-way call detection
US8204746B2 (en) * 2007-03-29 2012-06-19 Intellisist, Inc. System and method for providing an automated call center inline architecture
US7818170B2 (en) * 2007-04-10 2010-10-19 Motorola, Inc. Method and apparatus for distributed voice searching
US9794348B2 (en) 2007-06-04 2017-10-17 Todd R. Smith Using voice commands from a mobile device to remotely access and control a computer
ITFI20070177A1 (it) 2007-07-26 2009-01-27 Riccardo Vieri Sistema per la creazione e impostazione di una campagna pubblicitaria derivante dall'inserimento di messaggi pubblicitari all'interno di uno scambio di messaggi e metodo per il suo funzionamento.
US20090044112A1 (en) * 2007-08-09 2009-02-12 H-Care Srl Animated Digital Assistant
US8260619B1 (en) 2008-08-22 2012-09-04 Convergys Cmg Utah, Inc. Method and system for creating natural language understanding grammars
US8521766B1 (en) * 2007-11-12 2013-08-27 W Leo Hoarty Systems and methods for providing information discovery and retrieval
US8140335B2 (en) 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US8219407B1 (en) 2007-12-27 2012-07-10 Great Northern Research, LLC Method for processing the output of a speech recognizer
US8386260B2 (en) * 2007-12-31 2013-02-26 Motorola Mobility Llc Methods and apparatus for implementing distributed multi-modal applications
US8370160B2 (en) * 2007-12-31 2013-02-05 Motorola Mobility Llc Methods and apparatus for implementing distributed multi-modal applications
US8515786B2 (en) 2008-02-22 2013-08-20 Accenture Global Services Gmbh Rule generation system adapted for an insurance claim processing system
US8478769B2 (en) 2008-02-22 2013-07-02 Accenture Global Services Limited Conversational question generation system adapted for an insurance claim processing system
US20090217185A1 (en) * 2008-02-22 2009-08-27 Eugene Goldfarb Container generation system for a customizable application
US20090240499A1 (en) * 2008-03-19 2009-09-24 Zohar Dvir Large vocabulary quick learning speech recognition system
US9305548B2 (en) 2008-05-27 2016-04-05 Voicebox Technologies Corporation System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8589161B2 (en) 2008-05-27 2013-11-19 Voicebox Technologies, Inc. System and method for an integrated, multi-modal, multi-device natural language voice services environment
US8364751B2 (en) * 2008-06-25 2013-01-29 Microsoft Corporation Automated client/server operation partitioning
DE102008033056A1 (de) 2008-07-15 2010-01-21 Volkswagen Ag Kraftfahrzeug mit einem Mikrofon zur akustischen Eingabe eines Befehls zur Bedienung der Funktion des Kraftfahrzeuges
US8077836B2 (en) 2008-07-30 2011-12-13 At&T Intellectual Property, I, L.P. Transparent voice registration and verification method and system
US8463053B1 (en) 2008-08-08 2013-06-11 The Research Foundation Of State University Of New York Enhanced max margin learning on multimodal data mining in a multimedia database
US8355919B2 (en) 2008-09-29 2013-01-15 Apple Inc. Systems and methods for text normalization for text to speech synthesis
US20100121973A1 (en) * 2008-11-12 2010-05-13 Yuliya Lobacheva Augmentation of streaming media
US9390167B2 (en) 2010-07-29 2016-07-12 Soundhound, Inc. System and methods for continuous audio matching
US8862252B2 (en) 2009-01-30 2014-10-14 Apple Inc. Audio user interface for displayless electronic device
US9225838B2 (en) 2009-02-12 2015-12-29 Value-Added Communications, Inc. System and method for detecting three-way call circumvention attempts
US8630726B2 (en) 2009-02-12 2014-01-14 Value-Added Communications, Inc. System and method for detecting three-way call circumvention attempts
US8326637B2 (en) 2009-02-20 2012-12-04 Voicebox Technologies, Inc. System and method for processing multi-modal device interactions in a natural language voice services environment
US9002713B2 (en) 2009-06-09 2015-04-07 At&T Intellectual Property I, L.P. System and method for speech personalization by need
US11012732B2 (en) * 2009-06-25 2021-05-18 DISH Technologies L.L.C. Voice enabled media presentation systems and methods
WO2011059997A1 (en) 2009-11-10 2011-05-19 Voicebox Technologies, Inc. System and method for providing a natural language content dedication service
US9171541B2 (en) 2009-11-10 2015-10-27 Voicebox Technologies Corporation System and method for hybrid processing in a natural language voice services environment
KR20110114797A (ko) * 2010-04-14 2011-10-20 한국전자통신연구원 음성을 이용한 모바일 검색 장치 및 방법
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
US8811743B2 (en) * 2010-06-09 2014-08-19 Microsoft Corporation Resource-aware computer vision
CN103038818B (zh) * 2010-06-24 2016-10-12 本田技研工业株式会社 在车载语音识别系统与车外语音识别系统之间的通信系统和方法
US8713021B2 (en) 2010-07-07 2014-04-29 Apple Inc. Unsupervised document clustering using latent semantic density analysis
US9104670B2 (en) 2010-07-21 2015-08-11 Apple Inc. Customized search or acquisition of digital media assets
US9047371B2 (en) 2010-07-29 2015-06-02 Soundhound, Inc. System and method for matching a query against a broadcast stream
US9484018B2 (en) * 2010-11-23 2016-11-01 At&T Intellectual Property I, L.P. System and method for building and evaluating automatic speech recognition via an application programmer interface
US8996879B2 (en) * 2010-12-23 2015-03-31 Intel Corporation User identity attestation in mobile commerce
US9035163B1 (en) 2011-05-10 2015-05-19 Soundbound, Inc. System and method for targeting content based on identified audio and multimedia
US8798995B1 (en) * 2011-09-23 2014-08-05 Amazon Technologies, Inc. Key word determinations from voice data
US8473293B1 (en) * 2012-04-17 2013-06-25 Google Inc. Dictionary filtering using market data
US10957310B1 (en) 2012-07-23 2021-03-23 Soundhound, Inc. Integrated programming framework for speech and text understanding with meaning parsing
US9691377B2 (en) 2013-07-23 2017-06-27 Google Technology Holdings LLC Method and device for voice recognition training
US9275638B2 (en) 2013-03-12 2016-03-01 Google Technology Holdings LLC Method and apparatus for training a voice recognition model database
US9690874B1 (en) * 2013-04-26 2017-06-27 Skopic, Inc. Social platform for developing information-networked local communities
US9224385B1 (en) * 2013-06-17 2015-12-29 Google Inc. Unified recognition of speech and music
US9548047B2 (en) 2013-07-31 2017-01-17 Google Technology Holdings LLC Method and apparatus for evaluating trigger phrase enrollment
US9507849B2 (en) 2013-11-28 2016-11-29 Soundhound, Inc. Method for combining a query and a communication command in a natural language computer system
CN104123085B (zh) * 2014-01-14 2015-08-12 腾讯科技(深圳)有限公司 通过语音访问多媒体互动网站的方法和装置
US9292488B2 (en) 2014-02-01 2016-03-22 Soundhound, Inc. Method for embedding voice mail in a spoken utterance using a natural language processing computer system
US11295730B1 (en) 2014-02-27 2022-04-05 Soundhound, Inc. Using phonetic variants in a local context to improve natural language understanding
US10157620B2 (en) 2014-03-04 2018-12-18 Interactive Intelligence Group, Inc. System and method to correct for packet loss in automatic speech recognition systems utilizing linear interpolation
US9183831B2 (en) 2014-03-27 2015-11-10 International Business Machines Corporation Text-to-speech for digital literature
US9564123B1 (en) 2014-05-12 2017-02-07 Soundhound, Inc. Method and system for building an integrated user profile
EP3195145A4 (en) 2014-09-16 2018-01-24 VoiceBox Technologies Corporation Voice commerce
WO2016044321A1 (en) 2014-09-16 2016-03-24 Min Tang Integration of domain information into state transitions of a finite state transducer for natural language processing
WO2016061309A1 (en) 2014-10-15 2016-04-21 Voicebox Technologies Corporation System and method for providing follow-up responses to prior natural language inputs of a user
US9530408B2 (en) 2014-10-31 2016-12-27 At&T Intellectual Property I, L.P. Acoustic environment recognizer for optimal speech processing
US10614799B2 (en) 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
US10431214B2 (en) 2014-11-26 2019-10-01 Voicebox Technologies Corporation System and method of determining a domain and/or an action related to a natural language input
US9715498B2 (en) 2015-08-31 2017-07-25 Microsoft Technology Licensing, Llc Distributed server system for language understanding
US10572961B2 (en) 2016-03-15 2020-02-25 Global Tel*Link Corporation Detection and prevention of inmate to inmate message relay
US10878318B2 (en) 2016-03-28 2020-12-29 Google Llc Adaptive artificial neural network selection techniques
US9609121B1 (en) 2016-04-07 2017-03-28 Global Tel*Link Corporation System and method for third party monitoring of voice and video calls
WO2018023106A1 (en) 2016-07-29 2018-02-01 Erik SWART System and method of disambiguating natural language processing requests
CN106407428A (zh) * 2016-09-27 2017-02-15 生活立方家(武汉)科技有限公司 一种网络请求应对系统
US10027797B1 (en) 2017-05-10 2018-07-17 Global Tel*Link Corporation Alarm control for inmate call monitoring
US10225396B2 (en) 2017-05-18 2019-03-05 Global Tel*Link Corporation Third party monitoring of a activity within a monitoring platform
US10860786B2 (en) 2017-06-01 2020-12-08 Global Tel*Link Corporation System and method for analyzing and investigating communication data from a controlled environment
US9930088B1 (en) 2017-06-22 2018-03-27 Global Tel*Link Corporation Utilizing VoIP codec negotiation during a controlled environment call
WO2020246649A1 (ko) * 2019-06-07 2020-12-10 엘지전자 주식회사 엣지 컴퓨팅 디바이스에서 음성 인식 방법
EP4022603A4 (en) * 2019-08-27 2023-08-23 Ushur, Inc. SYSTEM AND METHOD FOR EXTRACTING CUSTOMIZED INFORMATION IN NATURAL LANGUAGE TEXT
CA3143944A1 (en) * 2019-12-10 2021-06-17 Rovi Guides, Inc. Systems and methods for local automated speech-to-text processing
US11568153B2 (en) 2020-03-05 2023-01-31 Bank Of America Corporation Narrative evaluator
US11900921B1 (en) * 2020-10-26 2024-02-13 Amazon Technologies, Inc. Multi-device speech processing
CN112507098B (zh) * 2020-12-18 2022-01-28 北京百度网讯科技有限公司 问题处理方法、装置、电子设备、存储介质及程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09507105A (ja) * 1993-12-22 1997-07-15 クゥアルコム・インコーポレーテッド 分散音声認識システム
JPH10214258A (ja) * 1997-01-28 1998-08-11 Victor Co Of Japan Ltd データ処理システム
JPH11249867A (ja) * 1998-02-27 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> 音声ブラウザシステム
JP2002540479A (ja) * 1999-03-26 2002-11-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ クライアントサーバ音声認識

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5919358B2 (ja) 1978-12-11 1984-05-04 株式会社日立製作所 音声内容伝送方式
US5157727A (en) 1980-02-22 1992-10-20 Alden Schloss Process for digitizing speech
US4587670A (en) 1982-10-15 1986-05-06 At&T Bell Laboratories Hidden Markov model speech recognition arrangement
US4991217A (en) 1984-11-30 1991-02-05 Ibm Corporation Dual processor speech recognition system with dedicated data acquisition bus
US4785408A (en) 1985-03-11 1988-11-15 AT&T Information Systems Inc. American Telephone and Telegraph Company Method and apparatus for generating computer-controlled interactive voice services
US4783803A (en) 1985-11-12 1988-11-08 Dragon Systems, Inc. Speech recognition apparatus and method
US4852170A (en) 1986-12-18 1989-07-25 R & D Associates Real time computer speech recognition system
US5231670A (en) 1987-06-01 1993-07-27 Kurzweil Applied Intelligence, Inc. Voice controlled system and method for generating text from a voice controlled input
US5146405A (en) 1988-02-05 1992-09-08 At&T Bell Laboratories Methods for part-of-speech determination and usage
US4914590A (en) 1988-05-18 1990-04-03 Emhart Industries, Inc. Natural language understanding system
DE68928230T2 (de) 1988-09-15 1998-02-05 Oce Tech Bv System zur grammatikalischen Verarbeitung eines aus natürlicher Sprache zusammengesetzten Satzes
US4991094A (en) 1989-04-26 1991-02-05 International Business Machines Corporation Method for language-independent text tokenization using a character categorization
US5265014A (en) * 1990-04-10 1993-11-23 Hewlett-Packard Company Multi-modal user interface
JPH0573094A (ja) * 1991-09-12 1993-03-26 Meidensha Corp 連続音声認識方法
US5293584A (en) 1992-05-21 1994-03-08 International Business Machines Corporation Speech recognition system for natural language translation
JP2818362B2 (ja) 1992-09-21 1998-10-30 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声認識装置のコンテキスト切換えシステムおよび方法
JP2524472B2 (ja) 1992-09-21 1996-08-14 インターナショナル・ビジネス・マシーンズ・コーポレイション 電話回線利用の音声認識システムを訓練する方法
US6073097A (en) 1992-11-13 2000-06-06 Dragon Systems, Inc. Speech recognition system which selects one of a plurality of vocabulary models
US5384892A (en) 1992-12-31 1995-01-24 Apple Computer, Inc. Dynamic language model for speech recognition
US5602963A (en) 1993-10-12 1997-02-11 Voice Powered Technology International, Inc. Voice activated personal organizer
US5615296A (en) * 1993-11-12 1997-03-25 International Business Machines Corporation Continuous speech recognition and voice response system and method to enable conversational dialogues with microprocessors
US5540589A (en) * 1994-04-11 1996-07-30 Mitsubishi Electric Information Technology Center Audio interactive tutor
US5640490A (en) 1994-11-14 1997-06-17 Fonix Corporation User independent, real-time speech recognition system and method
US5758322A (en) 1994-12-09 1998-05-26 International Voice Register, Inc. Method and apparatus for conducting point-of-sale transactions using voice recognition
US5737485A (en) * 1995-03-07 1998-04-07 Rutgers The State University Of New Jersey Method and apparatus including microphone arrays and neural networks for speech/speaker recognition systems
EP0958672A4 (en) 1995-06-07 2002-05-22 Comm Inc E TRANSFER CONTROL WITH LOW POWER CONSUMPTION FOR A HOST COMPUTER SERVER
US5680628A (en) 1995-07-19 1997-10-21 Inso Corporation Method and apparatus for automated search and retrieval process
US7174299B2 (en) 1995-08-18 2007-02-06 Canon Kabushiki Kaisha Speech recognition system, speech recognition apparatus, and speech recognition method
US5802526A (en) 1995-11-15 1998-09-01 Microsoft Corporation System and method for graphically displaying and navigating through an interactive voice response menu
US5727950A (en) 1996-05-22 1998-03-17 Netsage Corporation Agent based instruction system and method
US6427063B1 (en) 1997-05-22 2002-07-30 Finali Corporation Agent based instruction system and method
US5867817A (en) 1996-08-19 1999-02-02 Virtual Vision, Inc. Speech recognition manager
JP2001503154A (ja) 1996-09-10 2001-03-06 シーメンス アクチエンゲゼルシヤフト 音声認識システムにおける隠れマルコフ音声モデルの適合方法
US5819220A (en) 1996-09-30 1998-10-06 Hewlett-Packard Company Web triggered word set boosting for speech interfaces to the world wide web
US5995928A (en) 1996-10-02 1999-11-30 Speechworks International, Inc. Method and apparatus for continuous spelling speech recognition with early identification
US5836771A (en) 1996-12-02 1998-11-17 Ho; Chi Fai Learning method and system based on questioning
US5960399A (en) 1996-12-24 1999-09-28 Gte Internetworking Incorporated Client/server speech processor/recognizer
WO1998031007A2 (en) 1997-01-09 1998-07-16 Koninklijke Philips Electronics N.V. Method and apparatus for executing a human-machine dialogue in the form of two-sided speech as based on a modular dialogue structure
US6029124A (en) 1997-02-21 2000-02-22 Dragon Systems, Inc. Sequential, nonparametric speech recognition and speaker identification
US6009387A (en) 1997-03-20 1999-12-28 International Business Machines Corporation System and method of compression/decompressing a speech signal by using split vector quantization and scalar quantization
US6112176A (en) 1997-05-16 2000-08-29 Compaq Computer Corporation Speech data collection over the world wide web
US5983190A (en) * 1997-05-19 1999-11-09 Microsoft Corporation Client server animation system for managing interactive user interface characters
JPH1115574A (ja) * 1997-06-23 1999-01-22 Sefuto Kenkyusho:Kk 階層型コンピュータシステム
US6374219B1 (en) 1997-09-19 2002-04-16 Microsoft Corporation System for using silence in speech recognition
DE69814819T2 (de) * 1997-11-14 2004-04-01 Scansoft, Inc., Peabody Verfahren und system zur gemeinsamen nutzung von hardware in einem sprachbasierten kommunikationssystem mit sprachverarbeitung auf verschiedenen relativen komplexitätsstufen
US6182038B1 (en) 1997-12-01 2001-01-30 Motorola, Inc. Context dependent phoneme networks for encoding speech information
US6141640A (en) 1998-02-20 2000-10-31 General Electric Company Multistage positive product vector quantization for line spectral frequencies in low rate speech coding
US6119087A (en) 1998-03-13 2000-09-12 Nuance Communications System architecture for and method of voice processing
US6484196B1 (en) 1998-03-20 2002-11-19 Advanced Web Solutions Internet messaging system and method for use in computer networks
US6418431B1 (en) 1998-03-30 2002-07-09 Microsoft Corporation Information retrieval and speech recognition based on language models
US6233559B1 (en) 1998-04-01 2001-05-15 Motorola, Inc. Speech control of multiple applications using applets
US6144938A (en) 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
US6269336B1 (en) 1998-07-24 2001-07-31 Motorola, Inc. Voice browser for interactive services and methods thereof
US6256607B1 (en) 1998-09-08 2001-07-03 Sri International Method and apparatus for automatic recognition using features encoded with product-space vector quantization
US6434524B1 (en) 1998-09-09 2002-08-13 One Voice Technologies, Inc. Object interactive user interface using speech recognition and natural language processing
US6499013B1 (en) 1998-09-09 2002-12-24 One Voice Technologies, Inc. Interactive user interface using speech recognition and natural language processing
AU1025399A (en) 1998-09-22 2000-04-10 Nokia Networks Oy Method and system of configuring a speech recognition system
IL140805A0 (en) 1998-10-02 2002-02-10 Ibm Structure skeletons for efficient voice navigation through generic hierarchical objects
US6389389B1 (en) 1998-10-13 2002-05-14 Motorola, Inc. Speech recognition using unequally-weighted subvector error measures for determining a codebook vector index to represent plural speech parameters
GB2342828A (en) 1998-10-13 2000-04-19 Nokia Mobile Phones Ltd Speech parameter compression; distributed speech recognition
US6185535B1 (en) 1998-10-16 2001-02-06 Telefonaktiebolaget Lm Ericsson (Publ) Voice control of a user interface to service applications
GB2343778B (en) 1998-11-13 2003-03-05 Motorola Ltd Processing received data in a distributed speech recognition process
GB2343777B (en) 1998-11-13 2003-07-02 Motorola Ltd Mitigating errors in a distributed speech recognition process
US6336090B1 (en) * 1998-11-30 2002-01-01 Lucent Technologies Inc. Automatic speech/speaker recognition over digital wireless channels
US6377922B2 (en) 1998-12-29 2002-04-23 At&T Corp. Distributed recognition system having multiple prompt-specific and response-specific speech recognizers
US20020087655A1 (en) 1999-01-27 2002-07-04 Thomas E. Bridgman Information system for mobile users
US6411926B1 (en) 1999-02-08 2002-06-25 Qualcomm Incorporated Distributed voice recognition system
US6138089A (en) 1999-03-10 2000-10-24 Infolio, Inc. Apparatus system and method for speech compression and decompression
US6408272B1 (en) 1999-04-12 2002-06-18 General Magic, Inc. Distributed voice user interface
US6910180B1 (en) 1999-05-10 2005-06-21 Yahoo! Inc. Removing cookies from web page response headers and storing the cookies in a repository for later use
US6363349B1 (en) 1999-05-28 2002-03-26 Motorola, Inc. Method and apparatus for performing distributed speech processing in a communication system
US6327561B1 (en) 1999-07-07 2001-12-04 International Business Machines Corp. Customized tokenization of domain specific text via rules corresponding to a speech recognition vocabulary
US6381594B1 (en) 1999-07-12 2002-04-30 Yahoo! Inc. System and method for personalized information filtering and alert generation
US7590538B2 (en) 1999-08-31 2009-09-15 Accenture Llp Voice recognition system for navigating on the internet
AU7477000A (en) 1999-09-09 2001-04-10 Shoptok, Inc. Internet message board forwarding system
JP2001125840A (ja) 1999-10-22 2001-05-11 Kizna.Com Inc クライアントサーバシステム及びそのオーサリングツール並びにその応用装置
ATE277400T1 (de) 1999-10-29 2004-10-15 Ericsson Telefon Ab L M Verfahren und vorrichtung zur robusten merkmalsextraktion für die spracherkennung
US20010032083A1 (en) 2000-02-23 2001-10-18 Philip Van Cleven Language independent speech architecture
CA2408584A1 (en) 2000-04-06 2001-10-18 One Voice Technologies, Inc. Natural language and dialogue generation processing
US7177798B2 (en) 2000-04-07 2007-02-13 Rensselaer Polytechnic Institute Natural language interface using constrained intermediate dictionary of results
JP3728177B2 (ja) 2000-05-24 2005-12-21 キヤノン株式会社 音声処理システム、装置、方法及び記憶媒体
EP1290678B1 (en) 2000-06-08 2007-03-28 Nokia Corporation Method and system for adaptive distributed speech recognition
EP1304682A1 (en) 2000-07-05 2003-04-23 Alcatel Distributed speech recognition system
US7219058B1 (en) 2000-10-13 2007-05-15 At&T Corp. System and method for processing speech recognition results
US20020086269A1 (en) 2000-12-18 2002-07-04 Zeev Shpiro Spoken language teaching system based on language unit segmentation
US20020087325A1 (en) 2000-12-29 2002-07-04 Lee Victor Wai Leung Dialogue application computer platform
US20020091527A1 (en) 2001-01-08 2002-07-11 Shyue-Chin Shiau Distributed speech recognition server system for mobile internet/intranet communication

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09507105A (ja) * 1993-12-22 1997-07-15 クゥアルコム・インコーポレーテッド 分散音声認識システム
JPH10214258A (ja) * 1997-01-28 1998-08-11 Victor Co Of Japan Ltd データ処理システム
JPH11249867A (ja) * 1998-02-27 1999-09-17 Nippon Telegr & Teleph Corp <Ntt> 音声ブラウザシステム
JP2002540479A (ja) * 1999-03-26 2002-11-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ クライアントサーバ音声認識

Cited By (274)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8527861B2 (en) 1999-08-13 2013-09-03 Apple Inc. Methods and apparatuses for display and traversing of links in page character array
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8718047B2 (en) 2001-10-22 2014-05-06 Apple Inc. Text to speech conversion of text messages from mobile communication devices
US8458278B2 (en) 2003-05-02 2013-06-04 Apple Inc. Method and apparatus for displaying information during an instant messaging session
US10623347B2 (en) 2003-05-02 2020-04-14 Apple Inc. Method and apparatus for displaying information during an instant messaging session
US10348654B2 (en) 2003-05-02 2019-07-09 Apple Inc. Method and apparatus for displaying information during an instant messaging session
US10853560B2 (en) 2005-01-19 2020-12-01 Amazon Technologies, Inc. Providing annotations of a digital work
US9275052B2 (en) 2005-01-19 2016-03-01 Amazon Technologies, Inc. Providing annotations of a digital work
JP2006350090A (ja) * 2005-06-17 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> クライアント・サーバ音声認識方法、サーバ計算機での音声認識方法、音声特徴量抽出・送信方法、これらの方法を用いたシステム、装置、プログラムおよび記録媒体
JP4603429B2 (ja) * 2005-06-17 2010-12-22 日本電信電話株式会社 クライアント・サーバ音声認識方法、サーバ計算機での音声認識方法、音声特徴量抽出・送信方法、これらの方法を用いたシステム、装置、プログラムおよび記録媒体
US9501741B2 (en) 2005-09-08 2016-11-22 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9958987B2 (en) 2005-09-30 2018-05-01 Apple Inc. Automated response to and sensing of user activity in portable devices
US9619079B2 (en) 2005-09-30 2017-04-11 Apple Inc. Automated response to and sensing of user activity in portable devices
US9389729B2 (en) 2005-09-30 2016-07-12 Apple Inc. Automated response to and sensing of user activity in portable devices
US9117447B2 (en) 2006-09-08 2015-08-25 Apple Inc. Using event alert text as input to an automated assistant
US8930191B2 (en) 2006-09-08 2015-01-06 Apple Inc. Paraphrasing of user requests and results by automated digital assistant
US8942986B2 (en) 2006-09-08 2015-01-27 Apple Inc. Determining user intent based on ontologies of domains
US9672533B1 (en) 2006-09-29 2017-06-06 Amazon Technologies, Inc. Acquisition of an item based on a catalog presentation of items
US9292873B1 (en) 2006-09-29 2016-03-22 Amazon Technologies, Inc. Expedited acquisition of a digital item following a sample presentation of the item
US8725565B1 (en) 2006-09-29 2014-05-13 Amazon Technologies, Inc. Expedited acquisition of a digital item following a sample presentation of the item
US9116657B1 (en) 2006-12-29 2015-08-25 Amazon Technologies, Inc. Invariant referencing in digital works
US9665529B1 (en) 2007-03-29 2017-05-30 Amazon Technologies, Inc. Relative progress and event indicators
JP2010522936A (ja) * 2007-03-29 2010-07-08 アマゾン テクノロジーズ インコーポレイテッド ユーザ装置上の複数のコンテンツソースの検索
US8793575B1 (en) 2007-03-29 2014-07-29 Amazon Technologies, Inc. Progress indication for a digital work
US8954444B1 (en) 2007-03-29 2015-02-10 Amazon Technologies, Inc. Search and indexing on a user device
US10568032B2 (en) 2007-04-03 2020-02-18 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8656040B1 (en) 2007-05-21 2014-02-18 Amazon Technologies, Inc. Providing user-supplied items to a user device
US9568984B1 (en) 2007-05-21 2017-02-14 Amazon Technologies, Inc. Administrative tasks in a media consumption system
US8700005B1 (en) 2007-05-21 2014-04-15 Amazon Technologies, Inc. Notification of a user device to perform an action
US9178744B1 (en) 2007-05-21 2015-11-03 Amazon Technologies, Inc. Delivery of items for consumption by a user device
US9888005B1 (en) 2007-05-21 2018-02-06 Amazon Technologies, Inc. Delivery of items for consumption by a user device
US9479591B1 (en) 2007-05-21 2016-10-25 Amazon Technologies, Inc. Providing user-supplied items to a user device
US8965807B1 (en) 2007-05-21 2015-02-24 Amazon Technologies, Inc. Selecting and providing items in a media consumption system
US8990215B1 (en) 2007-05-21 2015-03-24 Amazon Technologies, Inc. Obtaining and verifying search indices
US9053089B2 (en) 2007-10-02 2015-06-09 Apple Inc. Part-of-speech tagging using latent analogy
US8543407B1 (en) 2007-10-04 2013-09-24 Great Northern Research, LLC Speech interface system and method for control and interaction with applications on a computing system
US11599332B1 (en) 2007-10-04 2023-03-07 Great Northern Research, LLC Multiple shell multi faceted graphical user interface
US8639716B2 (en) 2007-10-26 2014-01-28 Apple Inc. Search assistant for digital media assets
US9305101B2 (en) 2007-10-26 2016-04-05 Apple Inc. Search assistant for digital media assets
US8943089B2 (en) 2007-10-26 2015-01-27 Apple Inc. Search assistant for digital media assets
US8364694B2 (en) 2007-10-26 2013-01-29 Apple Inc. Search assistant for digital media assets
US8620662B2 (en) 2007-11-20 2013-12-31 Apple Inc. Context-aware unit selection
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US11023513B2 (en) 2007-12-20 2021-06-01 Apple Inc. Method and apparatus for searching using an active ontology
US10381016B2 (en) 2008-01-03 2019-08-13 Apple Inc. Methods and apparatus for altering audio output signals
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US9330381B2 (en) 2008-01-06 2016-05-03 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US10503366B2 (en) 2008-01-06 2019-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US11126326B2 (en) 2008-01-06 2021-09-21 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8688446B2 (en) 2008-02-22 2014-04-01 Apple Inc. Providing text input using speech data and non-speech data
US9361886B2 (en) 2008-02-22 2016-06-07 Apple Inc. Providing text input using speech data and non-speech data
USRE46139E1 (en) 2008-03-04 2016-09-06 Apple Inc. Language input interface on a device
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9946706B2 (en) 2008-06-07 2018-04-17 Apple Inc. Automatic language identification for dynamic text processing
US9535906B2 (en) 2008-07-31 2017-01-03 Apple Inc. Mobile device having human language translation capability with positional feedback
US10108612B2 (en) 2008-07-31 2018-10-23 Apple Inc. Mobile device having human language translation capability with positional feedback
US9691383B2 (en) 2008-09-05 2017-06-27 Apple Inc. Multi-tiered voice feedback in an electronic device
US8898568B2 (en) 2008-09-09 2014-11-25 Apple Inc. Audio user interface
US8352268B2 (en) 2008-09-29 2013-01-08 Apple Inc. Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
US8712776B2 (en) 2008-09-29 2014-04-29 Apple Inc. Systems and methods for selective text to speech synthesis
US8396714B2 (en) 2008-09-29 2013-03-12 Apple Inc. Systems and methods for concatenation of words in text to speech synthesis
US8583418B2 (en) 2008-09-29 2013-11-12 Apple Inc. Systems and methods of detecting language and natural language strings for text to speech synthesis
US8352272B2 (en) 2008-09-29 2013-01-08 Apple Inc. Systems and methods for text to speech synthesis
US8713119B2 (en) 2008-10-02 2014-04-29 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US11348582B2 (en) 2008-10-02 2022-05-31 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US8762469B2 (en) 2008-10-02 2014-06-24 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9412392B2 (en) 2008-10-02 2016-08-09 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10643611B2 (en) 2008-10-02 2020-05-05 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
US9087032B1 (en) 2009-01-26 2015-07-21 Amazon Technologies, Inc. Aggregation of highlights
US8380507B2 (en) 2009-03-09 2013-02-19 Apple Inc. Systems and methods for determining the language to use for speech generated by a text to speech engine
US8751238B2 (en) 2009-03-09 2014-06-10 Apple Inc. Systems and methods for determining the language to use for speech generated by a text to speech engine
US8832584B1 (en) 2009-03-31 2014-09-09 Amazon Technologies, Inc. Questions on highlighted passages
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US10475446B2 (en) 2009-06-05 2019-11-12 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10540976B2 (en) 2009-06-05 2020-01-21 Apple Inc. Contextual voice commands
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US9564089B2 (en) 2009-09-28 2017-02-07 Amazon Technologies, Inc. Last screen rendering for electronic book reader
US8682649B2 (en) 2009-11-12 2014-03-25 Apple Inc. Sentiment prediction from textual data
US8600743B2 (en) 2010-01-06 2013-12-03 Apple Inc. Noise profile determination for voice-related feature
US8670985B2 (en) 2010-01-13 2014-03-11 Apple Inc. Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts
US9311043B2 (en) 2010-01-13 2016-04-12 Apple Inc. Adaptive audio feedback system and method
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US8892446B2 (en) 2010-01-18 2014-11-18 Apple Inc. Service orchestration for intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8660849B2 (en) 2010-01-18 2014-02-25 Apple Inc. Prioritizing selection criteria by automated assistant
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US9548050B2 (en) 2010-01-18 2017-01-17 Apple Inc. Intelligent automated assistant
US8903716B2 (en) 2010-01-18 2014-12-02 Apple Inc. Personalized vocabulary for digital assistant
US8731942B2 (en) 2010-01-18 2014-05-20 Apple Inc. Maintaining context information between user interactions with a voice assistant
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8799000B2 (en) 2010-01-18 2014-08-05 Apple Inc. Disambiguation based on active input elicitation by intelligent automated assistant
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US8706503B2 (en) 2010-01-18 2014-04-22 Apple Inc. Intent deduction based on previous user interactions with voice assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10607140B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10607141B2 (en) 2010-01-25 2020-03-31 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10984326B2 (en) 2010-01-25 2021-04-20 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US11410053B2 (en) 2010-01-25 2022-08-09 Newvaluexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10984327B2 (en) 2010-01-25 2021-04-20 New Valuexchange Ltd. Apparatuses, methods and systems for a digital conversation management platform
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US9190062B2 (en) 2010-02-25 2015-11-17 Apple Inc. User profiling for voice input processing
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US10446167B2 (en) 2010-06-04 2019-10-15 Apple Inc. User-specific noise suppression for voice quality improvements
US8719006B2 (en) 2010-08-27 2014-05-06 Apple Inc. Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis
US9495322B1 (en) 2010-09-21 2016-11-15 Amazon Technologies, Inc. Cover display
US9075783B2 (en) 2010-09-27 2015-07-07 Apple Inc. Electronic device with text error correction based on voice recognition data
US8719014B2 (en) 2010-09-27 2014-05-06 Apple Inc. Electronic device with text error correction based on voice recognition data
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US10515147B2 (en) 2010-12-22 2019-12-24 Apple Inc. Using statistical language models for contextual lookup
US8781836B2 (en) 2011-02-22 2014-07-15 Apple Inc. Hearing assistance system for providing consistent human speech
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10672399B2 (en) 2011-06-03 2020-06-02 Apple Inc. Switching between text data and audio data based on a mapping
US11120372B2 (en) 2011-06-03 2021-09-14 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US8812294B2 (en) 2011-06-21 2014-08-19 Apple Inc. Translating phrases from one language into another using an order-based set of declarative rules
US8706472B2 (en) 2011-08-11 2014-04-22 Apple Inc. Method for disambiguating multiple readings in language conversion
US9798393B2 (en) 2011-08-29 2017-10-24 Apple Inc. Text correction processing
US8762156B2 (en) 2011-09-28 2014-06-24 Apple Inc. Speech recognition repair using contextual information
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9158741B1 (en) 2011-10-28 2015-10-13 Amazon Technologies, Inc. Indicators for navigating digital works
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US8775442B2 (en) 2012-05-15 2014-07-08 Apple Inc. Semantic search using a single-source semantic model
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US10019994B2 (en) 2012-06-08 2018-07-10 Apple Inc. Systems and methods for recognizing textual identifiers within a plurality of words
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US8935167B2 (en) 2012-09-25 2015-01-13 Apple Inc. Exemplar-based latent perceptual modeling for automatic speech recognition
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US10978090B2 (en) 2013-02-07 2021-04-13 Apple Inc. Voice trigger for a digital assistant
US11388291B2 (en) 2013-03-14 2022-07-12 Apple Inc. System and method for processing voicemail
US9977779B2 (en) 2013-03-14 2018-05-22 Apple Inc. Automatic supplementation of word correction dictionaries
US10572476B2 (en) 2013-03-14 2020-02-25 Apple Inc. Refining a search based on schedule items
US10642574B2 (en) 2013-03-14 2020-05-05 Apple Inc. Device, method, and graphical user interface for outputting captions
US9733821B2 (en) 2013-03-14 2017-08-15 Apple Inc. Voice control to diagnose inadvertent activation of accessibility features
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US9697822B1 (en) 2013-03-15 2017-07-04 Apple Inc. System and method for updating an adaptive speech recognition model
US11151899B2 (en) 2013-03-15 2021-10-19 Apple Inc. User training by intelligent digital assistant
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10078487B2 (en) 2013-03-15 2018-09-18 Apple Inc. Context-sensitive handling of interruptions
US9922642B2 (en) 2013-03-15 2018-03-20 Apple Inc. Training an at least partial voice command system
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9633674B2 (en) 2013-06-07 2017-04-25 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10657961B2 (en) 2013-06-08 2020-05-19 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US9300784B2 (en) 2013-06-13 2016-03-29 Apple Inc. System and method for emergency calls initiated by voice command
US10791216B2 (en) 2013-08-06 2020-09-29 Apple Inc. Auto-activating smart responses based on activities from remote devices
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US11257504B2 (en) 2014-05-30 2022-02-22 Apple Inc. Intelligent assistant for home automation
US10497365B2 (en) 2014-05-30 2019-12-03 Apple Inc. Multi-command single utterance input method
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10083690B2 (en) 2014-05-30 2018-09-25 Apple Inc. Better resolution when referencing to concepts
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US11133008B2 (en) 2014-05-30 2021-09-28 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10431204B2 (en) 2014-09-11 2019-10-01 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
KR20160032564A (ko) * 2014-09-16 2016-03-24 삼성전자주식회사 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체
KR102348084B1 (ko) * 2014-09-16 2022-01-10 삼성전자주식회사 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US11556230B2 (en) 2014-12-02 2023-01-17 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10311871B2 (en) 2015-03-08 2019-06-04 Apple Inc. Competing devices responding to voice triggers
US11087759B2 (en) 2015-03-08 2021-08-10 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US11500672B2 (en) 2015-09-08 2022-11-15 Apple Inc. Distributed personal assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US11526368B2 (en) 2015-11-06 2022-12-13 Apple Inc. Intelligent automated assistant in a messaging environment
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11069347B2 (en) 2016-06-08 2021-07-20 Apple Inc. Intelligent automated assistant for media exploration
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US11037565B2 (en) 2016-06-10 2021-06-15 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US11152002B2 (en) 2016-06-11 2021-10-19 Apple Inc. Application integration with a digital assistant
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11348475B2 (en) 2016-12-09 2022-05-31 The Boeing Company System and method for interactive cognitive task assistance
JP2018160232A (ja) * 2016-12-09 2018-10-11 ザ・ボーイング・カンパニーThe Boeing Company 対話形式で認知する作業支援システム及び方法
JP7184511B2 (ja) 2016-12-09 2022-12-06 ザ・ボーイング・カンパニー 対話形式で認知する作業支援システム及び方法
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
JP7196214B2 (ja) 2018-01-23 2022-12-26 グーグル エルエルシー 呼び出しフレーズの検出における雑音低減技術の選択的適応および利用
US11417324B2 (en) 2018-01-23 2022-08-16 Google Llc Selective adaptation and utilization of noise reduction technique in invocation phrase detection
JP2021089438A (ja) * 2018-01-23 2021-06-10 グーグル エルエルシーGoogle LLC 呼び出しフレーズの検出における雑音低減技術の選択的適応および利用
JP2021507315A (ja) * 2018-01-23 2021-02-22 グーグル エルエルシーGoogle LLC 呼び出しフレーズの検出における雑音低減技術の選択的適応および利用
US11984117B2 (en) 2018-01-23 2024-05-14 Google Llc Selective adaptation and utilization of noise reduction technique in invocation phrase detection

Also Published As

Publication number Publication date
EP1245023B1 (en) 2011-03-02
JP4987203B2 (ja) 2012-07-25
EP1245023A1 (en) 2002-10-02
DE60045690D1 (de) 2011-04-14
EP1245023A4 (en) 2005-08-03
WO2001035391A1 (en) 2001-05-17
ATE500587T1 (de) 2011-03-15
US6633846B1 (en) 2003-10-14

Similar Documents

Publication Publication Date Title
JP4987203B2 (ja) 分散型リアルタイム音声認識装置
US7050977B1 (en) Speech-enabled server for internet website and method
US7225125B2 (en) Speech recognition system trained with regional speech characteristics
US6665640B1 (en) Interactive speech based learning/training system formulating search queries based on natural language parsing of recognized user queries
US6615172B1 (en) Intelligent query engine for processing voice based queries
US7912702B2 (en) Statistical language model trained with semantic variants
US7725307B2 (en) Query engine for processing voice based queries including semantic decoding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110428

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110511

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110601

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111209

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120425

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees