JP4446312B2 - 音声認識中に可変数の代替ワードを表示する方法及びシステム - Google Patents

音声認識中に可変数の代替ワードを表示する方法及びシステム Download PDF

Info

Publication number
JP4446312B2
JP4446312B2 JP2006188990A JP2006188990A JP4446312B2 JP 4446312 B2 JP4446312 B2 JP 4446312B2 JP 2006188990 A JP2006188990 A JP 2006188990A JP 2006188990 A JP2006188990 A JP 2006188990A JP 4446312 B2 JP4446312 B2 JP 4446312B2
Authority
JP
Japan
Prior art keywords
word
words
phrase
alternative
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2006188990A
Other languages
English (en)
Other versions
JP2006351028A (ja
Inventor
ジェイ ローザック マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2006351028A publication Critical patent/JP2006351028A/ja
Application granted granted Critical
Publication of JP4446312B2 publication Critical patent/JP4446312B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Document Processing Apparatus (AREA)
  • Machine Translation (AREA)
  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、コンピュータ音声認識に係り、より詳細には、音声認識システムにより発生されるディクテーションの編集に係る。
話し手が効率的にディクテーションできそしてディクテーションされた語を自動的に認識することのできるコンピュータ音声ディクテーションシステムがコンピュータ音声システムの開発者により長年追求された目標となっている。このようなコンピュータ音声認識(CSR)システムから得られるであろう利益は、多大なものである。例えば、文書をコンピュータシステムに打ち込むのではなく、個人が文書のワードを単に話し、CSRシステムはそのワードを認識し、そして各ワードの文字を、それらワードがあたかもタイプされたかのように記憶する。人々は一般にタイプするよりは速く話せるので、効率が改善される。又、人々は、タイプの仕方を学習する必要がもはやなくなる。又、個人の手がタイプ打ち以外の作業で占有されるためにコンピュータの使用が現在不可能となっている多数の用途にもコンピュータを使用することができる。
典型的なCSRシステムは、認識コンポーネントと、ディクテーション編集コンポーネントとを有する。認識コンポーネントは、話し手から一連の発音を受け取り、各発音を認識し、そして各発音に対して認識されたワードをディクテーション編集コンポーネントへ送るように制御を行う。ディクテーション編集コンポーネントは、その認識されたワードを表示し、そして誤って認識されたワードをユーザが修正できるようにする。例えば、ディクテーション編集コンポーネントは、ユーザが、ワードを再び話すか又は正しいワードをタイプ打ちすることにより、誤って認識されたワードを取り換えられるようにする。
認識コンポーネントは、一般的に、その語彙の各ワードごとに発音のモデルを含む。認識コンポーネントは、話された発音を受け取ると、その話された発音を、その語彙の各ワードのモデリングされた発音と比較し、その話された発音に最も厳密に一致するモデリングされた発音を見出すように試みる。典型的な認識コンポーネントは、各モデリングされた発音が話された発音に一致する確率を計算する。このような認識コンポーネントは、話された発音に一致する確率が最も高いワードのリスト(認識ワードリストと称する)をディクテーション編集コンポーネントへ送信する。
ディクテーション編集コンポーネントは、一般に、最も高い確率をもつ認識されたワードリストからのワードを、その話された発音に対応する認識されたワードとして選択する。次いで、ディクテーション編集コンポーネントは、そのワードを表示する。しかしながら、表示されたワードが、話された発音の誤った認識である場合には、ディクテーション編集コンポーネントは、話し手が、その誤って認識されたワードを修正できるようにする。話し手がその誤って認識されたワードの修正を指示するときに、ディクテーション編集コンポーネントは、認識されたワードリストの中のワードを含む修正ウインドウを表示する。そのリストのワードの1つが正しいワードである場合に、話し手は、そのワード上でクリックするだけで修正を行うことができる。しかしながら、正しいワードがリストにない場合には、話し手は、正しいワードを話すか、又はタイプ打ちする。
あるCSRシステムは、ワードプロセッサのためのディクテーションファシリティとして働く。このようなCSRシステムは、話された発音の受信及び認識を制御し、そして認識されたワードに対応する各キャラクタをワードプロセッサへ送信する。このような構成は、話し手が、既に話したワードを修正しようと試みるときに、ワードプロセッサが認識されたワードのリストをアクセスせず、従って、これらのワードを表示して容易に修正を行うことができない。
本発明は、認識コンポーネント及びディクテーション編集コンポーネントを有する新規で且つ改良されたコンピュータ音声認識(CSR)システムを提供する。ディクテーション編集コンポーネントは、誤って認識されたワードを迅速に修正することができる。ディクテーション編集コンポーネントは、話し手が、修正ウインドウを再配列することにより、修正ウインドウに表示されるべき代替えワードの数を選択できるようにする。ディクテーション編集コンポーネントは、正しいワードを探し易くするためにアルファベット順に修正ウインドウにワードを表示する。本発明の別の特徴においては、CSRシステムは、誤って認識されたワード又はフレーズを再び話したときに、以前に話された発音及び新たに話された発音の両方の分析に基づき、その再び話された発音が、同じ誤って認識されたワード又はフレーズとして再び認識されるおそれを排除する。又、ディクテーション編集コンポーネントは、認識されたワードをワードプロセッサへ転送する前にディクテーション編集コンポーネントにバッファされる音声の量を話し手が特定できるようにする。又、ディクテーション編集コンポーネントは、通常はキャラクタベースである編集動作をワードベース又はフレーズベースのいずれかに変更するためのワード修正メタファ又はフレーズ修正メタファも使用する。
本発明は、コンピュータ音声認識(CSR)システムによって形成されるディクテーションを編集することのできるディクテーション編集コンポーネントを提供する。1つの実施形態では、ディクテーション編集コンポーネントは、話し手が、修正ウインドウを再配列することにより、修正ウインドウに表示されるべき代替えワードの数を選択できるようにする。更に、ディクテーション編集コンポーネントは、修正ウインドウにワードをアルファベット順に表示する。又、好ましいディクテーション編集コンポーネントは、誤って認識されたワードが再び話されるときに、その再び話される発音が、同じ誤って認識されたワードとして再度認識されるおそれを排除する。ディクテーション編集コンポーネントは、ワードプロセッサのようなアプリケーションプログラムへ認識されたワードを与えるときに、好ましくは、話し手が、認識されたワードをアプリケーションプログラムへ転送する前にディクテーション編集コンポーネントによりバッファされる音声の量を特定できるようにする。以下の説明において、本発明の種々の特徴は、個別のCSRシステム(即ち話し手が各ワード間に休止する)に関連して使用するときについて説明する。しかしながら、これらの特徴は、連続的CRSシステムに関連して使用することもできる。例えば、表示されるべき代替えフレーズの数を指示するように修正ウインドウを再配列することができる。又、話し手が置き換えられるべきフレーズを選択するときには、ユーザインターフェイスシステムが、同じフレーズが再び認識されないよう確保することができる。
図1は、再配列可能な修正ウインドウを例示する。ディクテーション編集コンポーネントのウインドウ101は、認識されたワード102及び修正ウインドウ103を含む。この例では、話し手は、ワード「I will make the cake. 」と話している。認識コンポーネントは、ワード「make」をワード「fake」と誤って認識している。このとき、話し手は、ワード「fake」を修正しなければならないことを指示する。修正ウインドウを表示する前に、ディクテーション編集コンポーネントは、再配列可能な修正ウインドウの現在サイズを決定し、そしてその修正ウインドウに表示することのできるワードの数を計算する。次いで、ディクテーション編集コンポーネントは、最も高い確率をもつ認識されたワードのリスト(即ち、代替えワード)からその数のワードを選択し、そして標準的なウインドウ再配列技術(例えば、マウスポインタでウインドウの境界を指しそしてマウスをドラッギングする)を用いて修正ウインドウにそれらのワードを表示する。話し手が更に多くのワードをリストから見たい場合には、修正ウインドウを単に再配列するだけでよい。修正ウインドウが再配列されるときには、ディクテーション編集コンポーネントは、修正ウインドウに表示することのできるワードの数を再び決定し、そしてその数のワードを修正ウインドウに表示する。話し手がワードの修正を指示する次のときに、ディクテーション編集コンポーネントは、その最後の再配列に基づいて適合する数のワードを修正ウインドウに表示する。このように、話し手は、修正ウインドウを単に再配列するだけで、表示されるべきワードの数を効果的に選択することができる。図2は、再配列後の修正ウインドウを例示する。
更に、ディクテーション編集コンポーネントは、修正ウインドウにワードをアルファベット順に表示するのが好ましい。アルファベット順にワードを表示することにより、話し手は、正しいワードが表示された場合にそれを素早く見つけることができる。公知のディクテーション編集コンポーネントは、そのコンポーネントにより決定された確率に基づく順序で修正ウインドウにワードを表示する。しかしながら、確率順に表示されたときには、正しいワードが第1番目又は第2番目に表示されない限り、話し手が正しいワードを見つけるのが困難である。
図3は、ワードプロセッサとインターフェイスするCSRシステムのための調整可能なディクテーションウインドウを示す。CSRシステムは、話し手からの一連の発音を入力し、発音を認識し、そして発音に対して認識されたワードをディクテーションウインドウ201に表示する。ディクテーションウインドウは、ディクテーション編集コンポーネントによって制御されるので、話し手は、ディクテーションウインドウにおいてワードを修正することができる。従って、話し手は、ディクテーションウインドウ内のワードの修正を選択すると、ディクテーション編集コンポーネントによってサポートされた修正ファシリティのいずれかを使用することができる。例えば、話し手は、ディクテーションウインドウに現在表示されているワードに対して認識されたワードリストのワードを表示するように修正ウインドウを使用することができる。図4は、修正ウインドウを使用して、ディクテーションウインドウのテキストを修正する場合を示す。
1つの実施形態において、ディクテーション編集コンポーネントは、話し手が、ディクテーションウインドウが受け入れることのできる音声の量を調整できるようにする。話し手は、ディクテーションウインドウ内のワードに対して修正ファシリティを使用できるだけであって、ワードプロセッサのウインドウ内のワードについては使用できないので、話し手のディクテーションの習慣に基づき音声の量を受け入れるようにディクテーションウインドウのサイズを調整することができる。例えば、話し手は、ディクテーションウインドウが、1つのセンテンス、1つのパラグラフ、又は固定数のワードのみを受け入れねばならないことを特定することができる。或いは又、話し手は、ディクテーションウインドウがウインドウに適合できる数のワードを受け入れねばならないことを指示するために、標準的なウインドウ再配列技術を用いてディクテーションウインドウを再配列することもできる。ディクテーションウインドウがいっぱいになったときには、CSRシステムは、ディクテーションウインドウ内の全てのワード又は幾つかのワードをワードプロセッサへ送信する。例えば、ディクテーションウインドウがセンテンスを受け入れねばならないことを話し手が指示する場合には、新たなセンテンスがスタートするときに、CSRシステムは、全てのワード(即ち、1つのセンテンス)をワードプロセッサへ送信する。逆に、話し手がディクテーションウインドウを再配列した場合には、CSRシステムは、一度に1行のワードのみをワードプロセッサへ送信する。
図5は、ディクテーション編集コンポーネントのためのワード修正メタファ(比喩)を示す。ワードプロセスシステムがディクテーションモードにあるときには、ディクテーション編集コンポーネントは、種々の編集事象(例えば、キーボード事象、マウス事象、ペン事象及び音声事象)の定義をキャラクタベースではなく、ワードベースとなるように自動的に変更する。例えば、ディクテーションモードにあるときには、通常は1キャラクタ分バックスペースするバックスペースキーが、一度に1ワードだけバックスペースするように変更される。従って、ディクテーションモードにあるときに、ユーザがバックスペースキーを押すと、現在挿入ポイントの左側にある全ワードが削除される。同様に、ディクテーションモードにあるときに、右及び左矢印キーは、挿入ポイントを左又は右に1ワードだけ移動させ、そして削除キーは、挿入ポイントの右側の全ワードを削除する。又、ユーザがマウスのボタンをクリックしそしてマウスポインタがワードの上にあるときには、ディクテーション編集コンポーネントは、挿入ポイントをワード内に単にセットするのではなく、マウスポインタが上にあるところのワードを選択する。しかしながら、マウスポインタがワード間にある場合は、挿入ポイントが単にワード間にセットされる。行301−304は、ワード修正メタファの作用を例示する。各行は、指示された事象が生じる前後のテキストを示している。例えば、行302は、挿入ポイントがワード「test」の後である場合に、左矢印事象により、挿入ポイントがワード「test」の前に移動されることを示している。ワード修正メタファの使用は、ディクテーションモードにあるときに、典型的な話し手が修正時に全ワードを再度話すことを望むので、ワードの修正を容易にする。従って、話し手がワード上でクリックすると、全ワードが選択され、そして話し手は、選択されたワードを置き換えるように単に話すだけでよい。音声認識が連続的であるときには、フレーズ修正メタファが好ましい。連続的な音声認識は、ワード境界を正しく識別しないことがあるので、ワード修正メタファは、発音がワードの一部分のみを表すか又は多数のワードを表すような誤って認識されたワードを選択する。このような状況では全フレーズを単に再度話すのが好ましい。従って、種々の編集事象の定義は、ワードベースで変更されるのではなく、フレーズベースで変更されることになる。例えば、通常は手前のキャラクタを越えてバックスペースするワード「バックスペース」を話すユーザの編集事象は、一度に1フレーズだけバックスペースするように変更される。図6は、このフレーズ修正メタファを示す。
1つの実施形態において、CSRシステムは、再び話された発音を、修正されている同じワードとして再び認識するのを防止するために、誤って認識されたワードの排除を与える。ディクテーション編集コンポーネントは、話し手が誤って認識されたワードをいつ修正するかを決定する。話し手は、誤って認識されたワードを種々の方法で修正することができる。例えば、話し手は、ワードを削除し、そしてワードが削除された位置における挿入ポイントで話すことができる。或いは又、話し手は、誤って認識されたワードをハイライト処理し、次いで、そのハイライト処理されたワードに置き換えるように話すこともできる。認識コンポーネントは、再び話された発音を受け取ると、その発音を認識し、そして新たに認識されたワードのリストをディクテーション編集コンポーネントへ送る。次いで、ディクテーション編集コンポーネントは、修正されているワード以外の最も高い確率をもつワードをその新たに認識されたワードのリストから選択しそして表示する。1つの実施形態において、ディクテーション編集コンポーネントは、誤って認識された発音に対する以前に認識されたワードのリストと、新たに認識されたワードリストとを使用して、両方の発音に一致する確率が最も高いワード(修正されているワード以外の)を選択する。最も高い確率を計算するために、ディクテーション編集コンポーネントは、両方の認識されたワードのリストにあるワードを識別し、そしてそれらの確率を乗算する。例えば、以下のテーブルは、認識されたワードのリスト及びそれに対応する確率の例を示す。
以前に認識されたワードのリスト 新たに認識されたワードのリスト
Fake .4 Fake .4
Make .3 Mace .3
Bake .1 Make .2
Mace .1 Bake .1
話し手がワード「make」を話した場合には、誤って認識されたワードの排除がないと、ディクテーション編集コンポーネントは、両方のリストにおいて最も高い確率を有することから、ワード「fake」を2回とも選択する。誤って認識されたワードの排除がある場合には、ディクテーション編集コンポーネントは、ワード「fake」が修正されるときに、ワード「mace」を選択する。というのは、ワード「mace」は、現在リストにおいてワード「fake」以外に最も高い確率を有するからである。しかしながら、両方の認識されたワードのリストからの確率が合成されたときには、ディクテーション編集コンポーネントは、ワード「make」を正しいワードとして選択する。というのは、最も高い合成確率を有するからである。ワード「make」の合成確率は、0.06(0.3x0.2)であり、ワード「mace」に場合には、0.03(0.1x0.3)であり、そしてワード「bake」の場合には、0.01(0.1x0.1)である。
又、CSRシステムは、ワードをその語彙に自動的に追加し、そして自動的にトレーニングする。ユーザが正しいワードをタイプ打ちすることにより誤って認識されたワードを修正するときには、ディクテーション編集コンポーネントは、そのタイプ打ちされたワードが語彙にあるかどうか決定する。そのタイプ打ちされたワードが語彙にない場合には、ディクテーション編集コンポーネントは、誤って認識された話された発音を用いてそれを語彙に加えて、そのワードに対するモデルをトレーニングするように認識コンポーネントに指令する。しかしながら、そのタイプ打ちされたワードが語彙にある場合には、ディクテーション編集コンポーネントは、誤って認識された話された発音でそのタイプ打ちされたワードをトレーニングするように認識コンポーネントに自動的に指令する。
ディクテーション編集コンポーネントは、連続的なディクテーションシステムと共に使用したときには、ワード修正に加えて、フレーズ修正を行うことができる。連続的なディクテーションシステムでは、認識コンポーネントは、ワードの境界を誤って識別することがある。例えば、話し手は、フレーズ「I want to recognize speech. 」と言う。認識コンポーネントは、話されたフレーズを「I want to wreck a nice beach. 」と認識することがある。しかしながら、単一ワード修正を使用した場合には、このような誤った認識を修正するための話し手に非常に馴染み易い方法が与えられない。話し手がワード「beach 」の代替えワードを見つけたい場合には、修正ウインドウにワード「peach 」、「teach 」及びおそらくは「speech」が表示される。話し手がワード「nice」の代替えワードを見つけたい場合には、ワード「ice 」及び「rice」が表示され、そしてワード「wreck 」については、ワード「heck」及び「rack」が表示される。このような単一ワード修正は、ワード「recognize speech」を識別しない。
ディクテーション編集コンポーネントは、誤ったワード境界から生じた誤った認識を効率的に修正できるようにフレーズを修正することができる。話し手が修正のためのフレーズを選択すると、ディクテーション編集コンポーネントは、代替えフレーズのリストを選択して表示する。例えば、話し手が「wreck a nice beach」を選択する場合には、その代替えフレーズが「wreck a nice peach」、「rack an ice leach 」及び「recognize speech」となる。又、話し手が「wreck a nice」を選択すると、その代替えフレーズは、「rack on ice 」及び「recognize 」となる。
更に、ユーザが修正のために誤って認識されたフレーズを選択すると、ディクテーション編集コンポーネントは、現在のフレーズがその誤って認識されたフレーズと2ワード以上異なると仮定する。誤って認識されたフレーズにおいて1ワードだけが不適切な場合には、話し手は、その誤って認識されたワードを単に選択し、誤って認識された全フレーズを選択しない。この仮定を用いると、ディクテーション編集コンポーネントは、誤って認識されたフレーズと1ワードしか相違しない代替えフレーズは表示しない。上記の例を続けると、話し手が「wreck a nice beach」を選択する場合に、代替えフレーズ「rack an ice leach 」及び「recognize speech」のみが表示される。代替えフレーズ「wreck a nice peach」は、1ワードしか相違しないので、表示されない。更に、1つの実施形態において、ディクテーション編集コンポーネントは、話し手が修正のためのフレーズを選択したときに、誤った認識が不適切に識別されたワード境界によるものであると仮定する。特に、表示された代替えワードを選択することによりフレーズを修正できる場合には、話し手は、それらの代替えワードを選択する。従って、ディクテーション編集コンポーネントは、代替えリストから個々のワードを修正することにより修正できる代替えフレーズは表示しない。例えば、ディクテーション編集コンポーネントは、ワード「rack」、「an」、「ice 」及び「leach 」が誤って認識された対応ワードの代替えワードである場合には、フレーズ「rack an ice leach 」を表示しない。
図7は、好ましい実施形態のコンピュータシステムのブロック図である。コンピュータシステム400は、メモリ401と、中央処理ユニット402と、I/Oインターフェイスユニット403と、記憶装置404と、ディスプレイ装置405と、キーボード406と、マウス407と、マイクロホン408とを備えている。メモリは、モデルコンポーネント408と、認識コンポーネント409と、ディクテーション編集コンポーネント410とを含むCSRシステムを備えていると共に、アプリケーションプログラム411も備えている。モデルコンポーネントは、語彙のワードに対する種々のモデル発音を含んでいる。認識コンポーネントは、話された発音を受け取り、モデルコンポーネントにアクセスして、認識されたワードのリストを発生する。ディクテーション編集コンポーネントは、認識されたワードのリストを受け取り、そして認識されたワードを表示する。認識コンポーネント、ディクテーション編集コンポーネント、及びアプリケーションプログラムは、種々の方法で相互接続することができる。図8及び9は、認識コンポーネント、ディクテーション編集コンポーネント及びアプリケーションプログラムの種々の相互接続を示すブロック図である。図8において、認識コンポーネントは、ディクテーション編集コンポーネントのアプリケーションプログラムインターフェイス(API)とインターフェイスし、これは、次いで、アプリケーションプログラムのAPIとインターフェイスする。図9において、認識コンポーネントは、ディクテーション編集コンポーネント及びアプリケーションプログラムにより与えられるAPIとインターフェイスする。或いは又、アプリケーションプログラムを、認識コンポーネント及びディクテーション編集コンポーネントにより与えられるAPIとインターフェイスすることもできる。
図10は、再配列可能な修正ウインドウをもつCSRシステムのフローチャートである。修正ウインドウを再配列することにより、話し手は、表示しなければならない認識されたワードリストからのワードの数を指示することができる。ステップ501−510において、CSRシステムは、ワードに対応する発音を受け取り、認識されたワードを表示し、そして話し手がワードを修正できるように循環する。ステップ501において、話し手がディクテーションを続ける場合には、システムは、ステップ502へ続き、さもなくば、ディクテーションは完了となる。ステップ502において、システムは、話し手からの次の発音を入力する。ステップ503において、システムは、話された発音を認識するために認識コンポーネントを呼び出す。認識コンポーネントは、認識されたワードのリストを、そのリストの各ワードが話された発音に対応する確率と共に返送する。ステップ504において、システムは、認識されたワードのリストから最も高い確率をもつワードを表示する。ステップ505−510において、システムは、話し手が表示されたワードを修正できるように循環する。ステップ505において、話し手が表示されたワードの修正を指示する場合には、システムは、ステップ506へ続き、さもなくば、システムは、ステップ501へ循環して、ディクテーションを続ける。ステップ506において、システムは、修正ウインドウの現在サイズを決定する。ステップ507において、システムは、その現在サイズに基づき修正ウインドウに適合できるワードの数を決定する。ステップ508において、システムは、認識されたワードのリストから最も高い確率をもつワードの数を選択し、そしてそれらのワードを修正ウインドウに表示する。1つの実施形態において、システムは、これらの選択されたワードを表示の前にアルファベット順に分類する。ステップ509において、システムは話し手から正しいワードを受け取る。ステップ510において、システムは、表示されたワードを正しいワードに置き換え、そしてステップ505へ循環する。
図11は、修正ウインドウのウインドウ手順を示すフローチャートである。このウインドウ手順は、修正ウインドウに向けられる全ての事象(即ち、メッセージ)を受け取りそしてその処理を制御する。ステップ501において、ウインドウが再配列されることを指示するメッセージが受け取られた場合には、手順がステップ502へ続き、さもなくば、手順は、他のメッセージの通常の処理で続く。ステップ502において、手順は、修正ウインドウの新たなサイズを記憶する。更に、手順は、CSRシステムが修正ウインドウに適合するワードの数を再計算し、そして修正ウインドウにその数のワードを再表示しなければならないことを指示する。
図12は、CSRシステムの調整可能なディクテーションウインドウ処理のフローチャートである。調整可能なディクテーションウインドウは、話し手がディクテーションウインドウに受け入れることのできる音声の量を特定できるようにする。従って、話し手は、ディクテーション編集コンポーネントの修正ファシリティを用いて、最後に話されたその量の音声を修正することができる。ステップ601において、システムは、ディクテーションウインドウを表示する。ステップ602−609において、システムは、音声の各単位(例えばセンテンス又はパラグラフ)を処理し、そして1つの単位が話されたときに、その単位をアプリケーションプログラムへ送信する。音声の単位は、ディクテーションウインドウが再配列されたときのワードの行であってもよい。ステップ602において、音声単位の終了が受け取られた場合に、システムは、ステップ610へ続き、さもなくば、ステップ603に続く。ステップ610において、システムは、音声単位をアプリケーションプログラムへ送り、そしてステップ603に続く。ステップ603において、話し手がディクテーションの完了を指示すると、システムは終了となり、さもなくば、システムは、ステップ604に続く。ステップ604において、システムは、話し手から話された発音を入力する。ステップ605において、システムは、認識コンポーネントを呼び出して、話された発音を認識し、そして認識されたワードのリストを返送する。ステップ606において、システムは、認識されたワードのリストをその後の修正のためにセーブする。ステップ607において、システムは、認識されたワードのリストにおいて最も高い確率をもつワードを選択しそして表示する。ステップ608において、話し手が修正モードに入ることを指示する場合には、システムはステップ609に続き、さもなくば、システムは、ステップ602へ循環して、音声単位の終りに達したかどうか決定する。ステップ609において、システムは、話し手がディクテーションウインドウ内のいずれかのワードを修正できるようにする。システムは、話し手によって要求されたときに、セーブされた認識されたワードのリストからのワードを修正ウインドウに表示する。次いで、システムは、ステップ602へ循環し、次の発音を入力する。
図13は、ワード修正メタファを実施するアプリケーションプログラム又はディクテーション編集コンポーネントのウインドウ手順のフローチャートである。このコンポーネントは、ディクテーションモードにあるときに、編集の動作をキャラクタ指向ではなくワード指向に変更する。ステップ701−705において、この手順は、どのメッセージが受け取られたか決定する。ステップ701において、ディクテーションイネーブルメッセージが受け取られた場合には、手順はステップ701Aに続き、さもなくば、手順はステップ702に続く。ステップ701Aにおいて、手順は、モードをディクテーションモードにセットし、そして復帰する。ステップ702において、メッセージがディクテーションディスエイブルメッセージである場合には、手順はステップ702Aに続き、さもなくば、手順はステップ703に続く。ステップ702Aにおいて、手順は、データ入力がディクテーションによるのではなくキーボードによることを指示するようにモードをセットし、そして復帰する。ステップ703において、メッセージが受信キャラクタメッセージである場合には、手順はステップ703Aに続き、さもなくば、手順はステップ704に続く。ステップ703Aにおいて、手順は、受け取ったキャラクタを表示する。キャラクタは、キーボード入力を経て受け取られてもよいし、又は認識されたワードのキャラクタの1つとして受け取られてもよい。ステップ704において、メッセージがバックスペースメッセージである場合には、手順はステップ704Aに続き、さもなくば、手順はステップ705に続く。ステップ704Aにおいて、現在モードがディクテーションの場合には、手順はステップ704Cに続き、さもなくば、手順はステップ704Bに続く。ステップ704Cにおいて、手順は現在挿入ポイントから1ワードだけバックスペースさせる。1ワードのバックスペース動作は、挿入ポイントの左側のワードを削除し、そして復帰となる。ステップ704Bにおいて、手順は1キャラクタの通常のバックスペースを実行しそして復帰となる。ステップ705において、メッセージがマウスクリックメッセージである場合には、手順はステップ705Aに続き、さもなくば、手順は通常の処理を続ける。ステップ705Aにおいて、現在モードがディクテーションである場合には、手順はステップ705Cに続き、さもなくば、手順はステップ705Bに続く。ステップ705Cにおいて、クリックがワード内であれば、手順は全ワードを選択する。さもなくば、手順は挿入ポイントをワード間にセットし、そして復帰する。ステップ705Bにおいて、手順は挿入ポイントを通常にセットし、そして復帰となる。
図14は、誤って認識されたワードを更なる認識から除去するディクテーション編集コンポーネントのフローチャートである。このコンポーネントは、話し手が誤って認識されたワードを修正するために話すときを検出し、そしてその誤って認識されたワードが再び話された発音として再び認識されるのを防止する。ステップ801において、ディクテーションが完了した場合には、このコンポーネントが終了となるが、さもなくば、ステップ803へ続く。ステップ803において、このコンポーネントは、ディクテーションコンポーネントから認識されたワードのリストを受け取る。ステップ804において、話された発音が話し手により誤って認識されたワードを修正するよう試みられる場合には、このコンポーネントはステップ805に続き、さもなくば、ステップ806に続く。ステップ805において、このコンポーネントは、認識されたワードのリストから修正されているワード以外のワードを選択しそしてステップ807に続く。ステップ806において、このコンポーネントは、認識されたワードのリストから最も確率の高いワードを選択する。ステップ807において、このコンポーネントは、選択されたワードを表示する。ステップ808において、話し手が修正モードに入ることを指示する場合に、このコンポーネントはステップ809に続くが、さもなくば、ステップ801へ循環して、別の発音を入力する。ステップ809において、このコンポーネントは、表示されたワードに対する修正を受け取る。ステップ810において、修正がキーボードにより入力された場合には、このコンポーネントは、ステップ811に続き、さもなくば、ステップ801へ循環して、次の入力発音を選択する。ステップ811において、タイプ打ちされたワードが既に語彙にある場合には、ステップ813へ続き、さもなくば、ステップ812へ続く。ステップ812において、このコンポーネントは、タイプ打ちされたワードを語彙に加える。ステップ813において、このコンポーネントは、タイプ打ちされたワードに対して認識システムをトレーニングし、そしてステップ801へ循環して次の発音を入力する。
図15は、認識プロセスを自動的にトレーニングするディクテーション編集コンポーネントのフローチャートである。ディクテーション編集コンポーネントは、誤って認識された発音を修正されたワード又はフレーズと共に収集する。次いで、ディクテーション編集コンポーネントは、誤って認識された発音を修正されたワード又はフレーズとして認識するよう認識プロセスをトレーニングするように認識コンポーネントに指令する。このトレーニングは、各々の誤って認識された発音が修正されるとき又は情報がセーブされるときに実行することができ、そしてトレーニングは後で行うこともできる。ステップ901−903において、このコンポーネントは、誤って認識された発音及び正しいワード又はフレーズを収集する。この情報は、話し手がワード又はフレーズを修正したことをこのコンポーネントが検出したときに収集することができる。ステップ903において、このコンポーネントは、認識装置をトレーニングすべきかどうか決定する。このようなトレーニングは、それを行わないとコンピュータシステムがアイドル状態になってしまうとき、又は認識の精度が受け入れられないものとなるときに行うことができる。ステップ904においては、このコンポーネントは、収集した発音に基づいて認識装置をトレーニングする。
好ましい実施形態について本発明を以上に説明したが、本発明は、この実施形態に限定されるものではなく、当業者であれば、本発明の精神から逸脱せずに、種々の変更がなされ得ることが明らかであろう。従って、本発明の範囲は、特許請求の範囲のみによって限定されるものとする。
再配列可能な修正ウインドウを例示する図である。 再配列後の修正ウインドウを例示する図である。 調整可能なディクテーションウインドウを示す図である。 修正ウインドウを使用して、ディクテーションウインドウのテキストを修正する図である。 ディクテーション編集コンポーネントに対するワード/フレーズ修正メタファを示す図である。 ディクテーション編集コンポーネントに対するワード/フレーズ修正メタファを示す図である。 好ましい実施形態のコンピュータシステムを示すブロック図である。 好ましい実施形態のコンピュータシステムを示すブロック図である。 好ましい実施形態のコンピュータシステムを示すブロック図である。 再配列可能なウインドウをもつディクテーション編集コンポーネントのフローチャートである。 再配列可能なウインドウに対するウインドウ手順を示すフローチャートである。 調整可能なディクテーションウインドウをもつディクテーション編集コンポーネントのフローチャートである。 ワード修正メタファを実施するワードプロセッサ又はディクテーション編集コンポーネントのウインドウ手順を示すフローチャートである。 誤って認識されたワードが更に確認されるのを排除するCSRシステムのフローチャートである。 自動認識トレーニングのフローチャートである。
符号の説明
101 ディクテーション編集コンポーネントのウインドウ
102 認識されたワード
103 修正ウインドウ
201 ディクテーションウインドウ
400 コンピュータシステム
401 メモリ
402 中央処理ユニット
403 I/Oインターフェイスユニット
404 記憶装置
405 ディスプレイ装置
406 キーボード
407 マウス
408 マイクロホン
409 認識コンポーネント
410 ディクテーション編集コンポーネント
411 アプリケーションプログラム

Claims (19)

  1. コンピュータディクテーションシステムが誤認識したワード(語)又はフレーズを訂正する間、代替ワード又は代替フレーズを表示する前記コンピュータディクテーションシステムで実行される方法であって、
    修正ウインドウの現在のサイズを特定し、
    前記修正ウインドウで表示することのできる代替ワード又は代替フレーズの数を前記現在のサイズから算出し、
    前記数の前記代替ワード又は代替フレーズを選択し、
    前記選択された代替ワード又は代替フレーズを前記修正ウインドウ内に表示する、
    各処理を含み、
    これにより、話者は、前記修正ウインドウのサイズを変更することによって前記修正ウインドウに表示される代替ワード又は代替フレーズの数を指示することができ、さらに、
    単一ワード単位の訂正かフレーズ単位の訂正であるかの指示を受信する処理を含み、
    フレーズ単位の訂正指示を受信した場合、前記修正ウインドウには、誤認識のされたフレーズ内のワードと比較して2ワード以上相違するワードを含む代替フレーズを表示し、
    単一ワード単位の訂正指示を受信した場合、前記修正ウインドウには、フレーズ単位で認識せずにワード毎に認識した代替ワードのみが表示されることを特徴とする方法。
  2. 前記代替ワード又は代替フレーズのそれぞれは関連する確率を有し、
    前記代替ワード又は代替フレーズを選択する処理は、前記数の代替ワード又は代替フレーズを高い確率の順から選択する、請求項1に記載の方法。
  3. 前記選択された代替ワード又は代替フレーズを前記修正ウインドウ内に表示した後、前記修正ウインドウ内に前記数以上の代替ワード又は代替フレーズを表示させるために前記修正ウインドウを拡大すると、前記修正ウインドウの現在のサイズを特定する処理、前記代替ワード又は代替フレーズの数を計算する処理、前記代替ワード又は代替フレーズを選択する処理、及び前記選択された代替ワード又は代替フレーズを前記修正ウインドウ内に表示する処理を繰り返す、前記請求項1に記載の方法。
  4. 前記選択された代替ワード又は代替フレーズはアルファベット順に表示される請求項1に記載の方法。
  5. 話者が前記修正ウインドウの境界をマウスポインタで指し示し、マウスをドラッギング(dragging)することによって前記修正ウインドウのサイズを変更する、請求項1に記載の方法。
  6. 上記コンピュータディクテーションシステムは、連続的なスピーチを認識するシステムである請求項1に記載の方法。
  7. 上記コンピュータディクテーションシステムは、分散ディクテーションシステムである請求項1に記載の方法。
  8. 修正ウインドウに可変数のワード又はフレーズを表示するコンピュータディクテーションシステムで実行される方法であって、
    前記修正ウインドウを表示し、
    前記修正ウインドウのサイズを変更するため、話者からの要求に応じて前記修正ウインドウのサイズを変更し、
    単一ワード単位の訂正かフレーズ単位の訂正であるかの指示を受信し、
    前記サイズの変更に基づき、前記修正ウインドウで表示可能な数のワード又はフレーズを計算し、
    前記計算された数のワード又はフレーズを前記修正ウインドウに表示することであって、フレーズ単位の訂正指示を受信した場合、前記修正ウインドウには、誤認識のされたフレーズ内のワードと比較して2ワード以上相違するワードを含む代替フレーズを表示し、単一ワード単位の訂正指示を受信した場合、前記修正ウインドウには、フレーズ単位で認識せずにワード毎に認識した代替ワードのみを表示する、
    処理を含む方法。
  9. 前記表示されるべきワード又はフレーズを、ワード訂正のための代替ワードのリストから、又はフレーズ訂正のための代替フレーズのリストから選択することを含む請求項8に記載の方法。
  10. 前記ワード又はフレーズはアルファベット順に表示される請求項8に記載の方法。
  11. 前記コンピュータディクテーションシステムは、連続的なスピーチを認識するシステムである請求項8に記載の方法。
  12. 前記コンピュータディクテーションシステムは、分散ディクテーションシステムである請求項1に記載の方法。
  13. 誤認識された発話に関する代替ワード又は代替フレーズを表示するコンピュータディクテーションシステムで実行される方法であって、
    前記誤認識された発話の正しい認識示す前記代替ワード又は代替フレーズを、関連する確率によって識別し、
    前記識別された代替ワード又は代替フレーズから高い確率を有するものを選択し、
    前記誤認識された発話の正しい認識として、話者が前記代替ワード又は代替フレーズの1つを選択することを許可するために、前記選択された代替ワード又は代替フレーズをアルファベット順に表示するものであって、フレーズ単位の訂正指示を受信した場合、前記修正ウインドウには、誤認識のされたフレーズ内のワードと比較して2ワード以上相違するワードを含む代替フレーズを表示し、単一ワード単位の訂正指示を受信した場合、前記修正ウインドウには、フレーズ単位で認識せずにワード毎に認識した代替ワードのみを表示する、各処理を含む前記方法。
  14. コンピュータディクテーションシステムが修正ウインドウに可変数のワード又はフレーズを表示するようにさせる命令を含むコンピュータ読み取り可能な媒体において、
    前記修正ウインドウを表示し、
    ポインティングデバイスを用いて前記修正ウインドウの境界を指しながらそのポインティングデバイスをドラッギングして前記修正ウインドウのサイズを変更し、
    前記修正ウインドウのサイズ変更に基づき前記修正ウインドウに表示できるワード又はフレーズの数を計算し、そして
    その計算された数のワード又はフレーズを修正ウインドウに表示するものであって、フレーズ単位の訂正指示を受信した場合、前記修正ウインドウには、誤認識のされたフレーズ内のワードと比較して2ワード以上相違するワードを含む代替フレーズを表示し、単一ワード単位の訂正指示を受信した場合、前記修正ウインドウには、フレーズ単位で認識せずにワード毎に認識した代替ワードのみを表示する、ことを特徴とするコンピュータ読み取り可能な媒体。
  15. 編集コマンドはキーボードの削除キーであり、ディクテーションモードにあるときは、編集の動作は、表示されたワード又はフレーズを削除することであり、そして非ディクテーションモードにあるときは、編集の動作は、表示されたキャラクタを削除することである請求項14に記載のコンピュータ読み取り可能な媒体。
  16. 編集コマンドはキーボードの矢印キーであり、ディクテーションモードにあるときは、編集の動作は、1つの表示されたワード又はフレーズを越えて挿入ポイントを移動することであり、そして非ディクテーションモードにあるときは、編集の動作は、1つの表示されたキャラクタを越えて挿入ポイントを移動することである請求項14に記載のコンピュータ読み取り可能な媒体。
  17. 編集コマンドはマウスクリックであり、ディクテーションモードにあるときは、編集の動作は、表示されたワード又はフレーズを選択することであり、そして非ディクテーションモードにあるときは、編集の動作は、挿入ポイントをセットすることである請求項14に記載のコンピュータ読み取り可能な媒体。
  18. 表示されるべきワードを、ワード訂正のための代替ワードのリストから、又は表示されるべきフレーズを、フレーズ訂正のための代替フレーズのリストから選択することを含む請求項14に記載のコンピュータ読み取り可能な媒体。
  19. 上記ワード又はフレーズはアルファベット順に表示される請求項14に記載のコンピュータ読み取り可能な媒体。
JP2006188990A 1996-10-31 2006-07-10 音声認識中に可変数の代替ワードを表示する方法及びシステム Expired - Lifetime JP4446312B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/741,830 US5950160A (en) 1996-10-31 1996-10-31 Method and system for displaying a variable number of alternative words during speech recognition

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP29894597A Division JP3880163B2 (ja) 1996-10-31 1997-10-30 音声認識中に可変数の代替ワードを表示する方法及びシステム

Publications (2)

Publication Number Publication Date
JP2006351028A JP2006351028A (ja) 2006-12-28
JP4446312B2 true JP4446312B2 (ja) 2010-04-07

Family

ID=24982393

Family Applications (2)

Application Number Title Priority Date Filing Date
JP29894597A Expired - Lifetime JP3880163B2 (ja) 1996-10-31 1997-10-30 音声認識中に可変数の代替ワードを表示する方法及びシステム
JP2006188990A Expired - Lifetime JP4446312B2 (ja) 1996-10-31 2006-07-10 音声認識中に可変数の代替ワードを表示する方法及びシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP29894597A Expired - Lifetime JP3880163B2 (ja) 1996-10-31 1997-10-30 音声認識中に可変数の代替ワードを表示する方法及びシステム

Country Status (5)

Country Link
US (2) US5950160A (ja)
EP (1) EP0840286B1 (ja)
JP (2) JP3880163B2 (ja)
CN (1) CN1188826C (ja)
DE (1) DE69721938T2 (ja)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5950160A (en) * 1996-10-31 1999-09-07 Microsoft Corporation Method and system for displaying a variable number of alternative words during speech recognition
US7406084B2 (en) * 1997-09-19 2008-07-29 Nokia Siemens Networks Gmbh & Co. Kg Flexible software architecture for a call processing system
CA2219008C (en) * 1997-10-21 2002-11-19 Bell Canada A method and apparatus for improving the utility of speech recognition
US6457031B1 (en) * 1998-09-02 2002-09-24 International Business Machines Corp. Method of marking previously dictated text for deferred correction in a speech recognition proofreader
US7679534B2 (en) 1998-12-04 2010-03-16 Tegic Communications, Inc. Contextual prediction of user words and user actions
US7720682B2 (en) * 1998-12-04 2010-05-18 Tegic Communications, Inc. Method and apparatus utilizing voice input to resolve ambiguous manually entered text input
US7881936B2 (en) * 1998-12-04 2011-02-01 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US7712053B2 (en) * 1998-12-04 2010-05-04 Tegic Communications, Inc. Explicit character filtering of ambiguous text entry
US7319957B2 (en) * 2004-02-11 2008-01-15 Tegic Communications, Inc. Handwriting and voice input with automatic correction
US8938688B2 (en) * 1998-12-04 2015-01-20 Nuance Communications, Inc. Contextual prediction of user words and user actions
US6556970B1 (en) 1999-01-28 2003-04-29 Denso Corporation Apparatus for determining appropriate series of words carrying information to be recognized
US7292980B1 (en) 1999-04-30 2007-11-06 Lucent Technologies Inc. Graphical user interface and method for modifying pronunciations in text-to-speech and speech recognition systems
US6370503B1 (en) * 1999-06-30 2002-04-09 International Business Machines Corp. Method and apparatus for improving speech recognition accuracy
JP4565585B2 (ja) * 2000-04-13 2010-10-20 キヤノン株式会社 データ処理装置、データ処理方法、記録媒体
JP3567864B2 (ja) * 2000-07-21 2004-09-22 株式会社デンソー 音声認識装置及び記録媒体
JP2002132287A (ja) * 2000-10-20 2002-05-09 Canon Inc 音声収録方法および音声収録装置および記憶媒体
US6754625B2 (en) * 2000-12-26 2004-06-22 International Business Machines Corporation Augmentation of alternate word lists by acoustic confusability criterion
JP4056711B2 (ja) * 2001-03-19 2008-03-05 日産自動車株式会社 音声認識装置
US20060253784A1 (en) * 2001-05-03 2006-11-09 Bower James M Multi-tiered safety control system and methods for online communities
EP1262954A1 (en) * 2001-05-30 2002-12-04 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for verbal entry of digits or commands
US20030120493A1 (en) * 2001-12-21 2003-06-26 Gupta Sunil K. Method and system for updating and customizing recognition vocabulary
EP1372139A1 (en) * 2002-05-15 2003-12-17 Pioneer Corporation Speech recognition apparatus and program with error correction
US8583440B2 (en) * 2002-06-20 2013-11-12 Tegic Communications, Inc. Apparatus and method for providing visual indication of character ambiguity during text entry
EP1595245B1 (en) * 2003-02-21 2009-04-22 Voice Signal Technologies Inc. Method of producing alternate utterance hypotheses using auxiliary information on close competitors
DE602004018290D1 (de) * 2003-03-26 2009-01-22 Philips Intellectual Property Spracherkennungs- und korrektursystem, korrekturvorrichtung und verfahren zur erstellung eines lexikons von alternativen
EP1611570B1 (en) * 2003-03-31 2017-06-28 Nuance Communications Austria GmbH System for correction of speech recognition results with confidence level indication
WO2005027093A1 (en) * 2003-09-11 2005-03-24 Voice Signal Technologies, Inc. Generation of an alternative pronunciation
US8019602B2 (en) * 2004-01-20 2011-09-13 Microsoft Corporation Automatic speech recognition learning using user corrections
US20050160433A1 (en) * 2004-01-21 2005-07-21 Lambert John R. Optimizations of user interface-independent testing
TW200538969A (en) * 2004-02-11 2005-12-01 America Online Inc Handwriting and voice input with automatic correction
US20050192802A1 (en) * 2004-02-11 2005-09-01 Alex Robinson Handwriting and voice input with automatic correction
US8095364B2 (en) * 2004-06-02 2012-01-10 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US20090193334A1 (en) * 2005-05-18 2009-07-30 Exb Asset Management Gmbh Predictive text input system and method involving two concurrent ranking means
US9606634B2 (en) 2005-05-18 2017-03-28 Nokia Technologies Oy Device incorporating improved text input mechanism
US8473295B2 (en) * 2005-08-05 2013-06-25 Microsoft Corporation Redictation of misrecognized words using a list of alternatives
US7983914B2 (en) * 2005-08-10 2011-07-19 Nuance Communications, Inc. Method and system for improved speech recognition by degrading utterance pronunciations
US7644209B2 (en) * 2005-08-31 2010-01-05 Research In Motion Limited Handheld electronic device with text disambiguation allowing dynamic expansion of input key associations
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US20070106506A1 (en) * 2005-11-07 2007-05-10 Ma Changxue C Personal synergic filtering of multimodal inputs
US8229733B2 (en) * 2006-02-09 2012-07-24 John Harney Method and apparatus for linguistic independent parsing in a natural language systems
JP2007256643A (ja) * 2006-03-23 2007-10-04 Denso Corp 音声認識装置及びナビゲーションシステム
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US7831431B2 (en) 2006-10-31 2010-11-09 Honda Motor Co., Ltd. Voice recognition updates via remote broadcast signal
US8150020B1 (en) 2007-04-04 2012-04-03 At&T Intellectual Property Ii, L.P. System and method for prompt modification based on caller hang ups in IVRs
CN100592249C (zh) * 2007-09-21 2010-02-24 上海汉翔信息技术有限公司 快速输入相关词的方法
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US8229225B2 (en) * 2008-05-06 2012-07-24 Wu Yingchao Candidate selection method for handwriting input
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
KR101233561B1 (ko) 2011-05-12 2013-02-14 엔에이치엔(주) 단어 수준의 후보 생성에 기초한 음성 인식 시스템 및 방법
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
CN103544952A (zh) * 2012-07-12 2014-01-29 百度在线网络技术(北京)有限公司 语音自适应方法、装置及系统
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9953646B2 (en) 2014-09-02 2018-04-24 Belleau Technologies Method and system for dynamic speech recognition and tracking of prewritten script
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
CN105185379B (zh) * 2015-06-17 2017-08-18 百度在线网络技术(北京)有限公司 声纹认证方法和装置
DK201670539A1 (en) * 2016-03-14 2017-10-02 Apple Inc Dictation that allows editing
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US11597519B2 (en) 2017-10-17 2023-03-07 The Boeing Company Artificially intelligent flight crew systems and methods
CN107993653A (zh) * 2017-11-30 2018-05-04 南京云游智能科技有限公司 语音识别设备的错误发音自动纠正更新方法和更新系统

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4761815A (en) * 1981-05-01 1988-08-02 Figgie International, Inc. Speech recognition system based on word state duration and/or weight
US4566065A (en) * 1983-04-22 1986-01-21 Kalman Toth Computer aided stenographic system
US4618984A (en) * 1983-06-08 1986-10-21 International Business Machines Corporation Adaptive automatic discrete utterance recognition
US4714918A (en) * 1984-04-30 1987-12-22 International Business Machines Corporation Window view control
US4914704A (en) * 1984-10-30 1990-04-03 International Business Machines Corporation Text editor for speech input
US4799262A (en) * 1985-06-27 1989-01-17 Kurzweil Applied Intelligence, Inc. Speech recognition
US4783803A (en) * 1985-11-12 1988-11-08 Dragon Systems, Inc. Speech recognition apparatus and method
CA1311059C (en) * 1986-03-25 1992-12-01 Bruce Allen Dautrich Speaker-trained speech recognizer having the capability of detecting confusingly similar vocabulary words
US4882757A (en) * 1986-04-25 1989-11-21 Texas Instruments Incorporated Speech recognition system
GB8610809D0 (en) * 1986-05-02 1986-06-11 Smiths Industries Plc Speech recognition apparatus
JP2717652B2 (ja) * 1986-06-02 1998-02-18 モトローラ・インコーポレーテッド 連続音声認識システム
JPS6324462A (ja) * 1986-07-17 1988-02-01 Toshiba Corp ウインドウ状態表示方式
US4837831A (en) * 1986-10-15 1989-06-06 Dragon Systems, Inc. Method for creating and using multiple-word sound models in speech recognition
US4829576A (en) * 1986-10-21 1989-05-09 Dragon Systems, Inc. Voice recognition system
US5231670A (en) * 1987-06-01 1993-07-27 Kurzweil Applied Intelligence, Inc. Voice controlled system and method for generating text from a voice controlled input
DE3819178A1 (de) * 1987-06-04 1988-12-22 Ricoh Kk Spracherkennungsverfahren und -einrichtung
US4870686A (en) * 1987-10-19 1989-09-26 Motorola, Inc. Method for entering digit sequences by voice command
US5027406A (en) * 1988-12-06 1991-06-25 Dragon Systems, Inc. Method for interactive speech recognition and training
US5127055A (en) * 1988-12-30 1992-06-30 Kurzweil Applied Intelligence, Inc. Speech recognition apparatus & method having dynamic reference pattern adaptation
US5604897A (en) * 1990-05-18 1997-02-18 Microsoft Corporation Method and system for correcting the spelling of misspelled words
US5202952A (en) * 1990-06-22 1993-04-13 Dragon Systems, Inc. Large-vocabulary continuous speech prefiltering and processing system
US5329609A (en) * 1990-07-31 1994-07-12 Fujitsu Limited Recognition apparatus with function of displaying plural recognition candidates
US5548681A (en) * 1991-08-13 1996-08-20 Kabushiki Kaisha Toshiba Speech dialogue system for realizing improved communication between user and system
US5386494A (en) * 1991-12-06 1995-01-31 Apple Computer, Inc. Method and apparatus for controlling a speech recognition function using a cursor control device
DE4303071A1 (de) 1992-02-03 1993-10-28 Computervision Corp Verfahren und Vorrichtung zur Randbewertung in einer Nicht-Mannigfaltigkeits-Umgebung
US5425128A (en) * 1992-05-29 1995-06-13 Sunquest Information Systems, Inc. Automatic management system for speech recognition processes
FI97919C (fi) 1992-06-05 1997-03-10 Nokia Mobile Phones Ltd Puheentunnistusmenetelmä ja -järjestelmä puheella ohjattavaa puhelinta varten
US5428707A (en) * 1992-11-13 1995-06-27 Dragon Systems, Inc. Apparatus and methods for training speech recognition systems and their users and otherwise improving speech recognition performance
US5367453A (en) * 1993-08-02 1994-11-22 Apple Computer, Inc. Method and apparatus for correcting words
US5623578A (en) * 1993-10-28 1997-04-22 Lucent Technologies Inc. Speech recognition system allows new vocabulary words to be added without requiring spoken samples of the words
TW323364B (ja) 1993-11-24 1997-12-21 At & T Corp
US5487143A (en) * 1994-04-06 1996-01-23 Altera Corporation Computer user interface having tiled and overlapped window areas
FI105114B (fi) 1994-04-08 2000-06-15 Valmet Paper Machinery Inc Laitteisto paperikoneen telan pinnoitteen kunnostamisessa
US5651096A (en) * 1995-03-14 1997-07-22 Apple Computer, Inc. Merging of language models from two or more application programs for a speech recognition system
US5712957A (en) * 1995-09-08 1998-01-27 Carnegie Mellon University Locating and correcting erroneously recognized portions of utterances by rescoring based on two n-best lists
US5794189A (en) * 1995-11-13 1998-08-11 Dragon Systems, Inc. Continuous speech recognition
US5857099A (en) * 1996-09-27 1999-01-05 Allvoice Computing Plc Speech-to-text dictation system with audio message capability
US5899976A (en) * 1996-10-31 1999-05-04 Microsoft Corporation Method and system for buffering recognized words during speech recognition
US5950160A (en) * 1996-10-31 1999-09-07 Microsoft Corporation Method and system for displaying a variable number of alternative words during speech recognition
US5829000A (en) * 1996-10-31 1998-10-27 Microsoft Corporation Method and system for correcting misrecognized spoken words or phrases
US6195637B1 (en) * 1998-03-25 2001-02-27 International Business Machines Corp. Marking and deferring correction of misrecognition errors
US6157910A (en) * 1998-08-31 2000-12-05 International Business Machines Corporation Deferred correction file transfer for updating a speech file by creating a file log of corrections

Also Published As

Publication number Publication date
JP2006351028A (ja) 2006-12-28
DE69721938T2 (de) 2004-01-22
US6363347B1 (en) 2002-03-26
EP0840286A2 (en) 1998-05-06
JPH10187709A (ja) 1998-07-21
JP3880163B2 (ja) 2007-02-14
US5950160A (en) 1999-09-07
EP0840286A3 (en) 1999-07-28
CN1183607A (zh) 1998-06-03
CN1188826C (zh) 2005-02-09
EP0840286B1 (en) 2003-05-14
DE69721938D1 (de) 2003-06-18

Similar Documents

Publication Publication Date Title
JP4446312B2 (ja) 音声認識中に可変数の代替ワードを表示する方法及びシステム
JP3333123B2 (ja) 音声認識中に認識されたワードをバッファする方法及びシステム
US5829000A (en) Method and system for correcting misrecognized spoken words or phrases
US5884258A (en) Method and system for editing phrases during continuous speech recognition
EP0773532B1 (en) Continuous speech recognition
US5799279A (en) Continuous speech recognition of text and commands
EP0376501B1 (en) Speech recognition system
US8954329B2 (en) Methods and apparatus for acoustic disambiguation by insertion of disambiguating textual information
EP0867857B1 (en) Enrolment in speech recognition
US5787230A (en) System and method of intelligent Mandarin speech input for Chinese computers
EP0840287A2 (en) Method and system for selecting recognized words when correcting recognized speech
JP2000010588A (ja) 音声認識方法及び装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080623

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080924

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080929

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081023

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100112

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140129

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term