JP5517458B2 - フラグメントを使用した大規模なリストにおける音声認識 - Google Patents

フラグメントを使用した大規模なリストにおける音声認識 Download PDF

Info

Publication number
JP5517458B2
JP5517458B2 JP2009003489A JP2009003489A JP5517458B2 JP 5517458 B2 JP5517458 B2 JP 5517458B2 JP 2009003489 A JP2009003489 A JP 2009003489A JP 2009003489 A JP2009003489 A JP 2009003489A JP 5517458 B2 JP5517458 B2 JP 5517458B2
Authority
JP
Japan
Prior art keywords
list
fragment
fragments
entries
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009003489A
Other languages
English (en)
Other versions
JP2009169418A (ja
Inventor
シュワルツ マルクス
Original Assignee
ニュアンス コミュニケーションズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ニュアンス コミュニケーションズ, インコーポレイテッド filed Critical ニュアンス コミュニケーションズ, インコーポレイテッド
Publication of JP2009169418A publication Critical patent/JP2009169418A/ja
Application granted granted Critical
Publication of JP5517458B2 publication Critical patent/JP5517458B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/027Syllables being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本発明は、音声入力によってエントリのリストからエントリを選択する音声認識方法と、音声認識システムとに関する。
ナビゲーション、ネームダイヤリング(name dialing)、またはオーディオプレーヤ/ビデオプレーヤの制御などの多くの用途において、例えば、都市名、通りの名前、固有名詞、住所、または音楽のタイトルなどのエントリの大規模なリストからエントリを選択することが必要である。プロセッサリソースにおける適度なメモリを用いた音声認識を可能にするために、2つのステップの音声認識手法が、頻繁に使用されている。第1のステップにおいて、音素シーケンスまたは音素ストリングが、音声認識モジュールによって認識される。しかしながら、音素認識に対する認識精度は、通常、許容できるものではなく、様々な、音素の置換、音素の挿入、または音素の削除が生じる。次に、音素ストリングなどの認識された音声入力は、音声学的に書き表されたエントリの可能な限り大規模なリストと比較されることにより、最も良く一致する項目のより短い候補リストを決定する。次に、候補リストは、第2の認識経路に対する新たな語彙として音声認識器に供給され得る。かかる手法は、計算リソースを節約する。なぜならば、第1のステップにおいて行われる認識は、あまり労力を必要とせず、そして、計算に費用がかかる第2のステップは、エントリの大規模なリストのうちの少しのサブセットを用いて行われるだけだからである。上記のような2つのステップの音声認識手法は、特許文献1から公知である。
しかしながら、非常に大規模なリストの場合には、計算の労力は、まだ非常に大きい。ナビゲーションシステムの音声駆動制御を有するナビゲーションシステムの場合には、運転手/話者が、目的地の都市における通りと組み合わされた都市などの目的地の組み合わせを述べるという状況が生じる。例えば、ドイツには、約300万通りの都市と通りとの組み合わせが存在する。認識ステップが、かかる大規模なリストにおいて実行されるときには、上述の一致ステップは、あまりにも多くの、メモリと一致の実行時間とを必要とするので、上述の一致ステップは、車両に埋め込まれたシステムに組み込まれ得ない。これらの大規模なリストは、例えば、音声制御された歌の選択が、製品に組み込まれなければならないときなど、アーティストの名前、アーティストの歌などを選択するときのような他の分野の用途においても存在する。
国際公開第2004/077405号パンフレット
したがって、エントリのリストからエントリを選択する音声認識方法を改善する必要性が存在し、該音声認識方法においては、計算の労力がさらに最小化される。
この必要性は、独立請求項の特徴によって満たされる。従属請求項においては、本発明の好適な実施形態が記述される。
本発明の第1の局面に従って、音声認識方法が、音声入力によってエントリのリストからエントリを選択するために提供される。方法は、音声入力を検出するステップと、音声入力を認識するステップとを包含する。さらに、リストのエントリのフラグメントが提供される。次に、認識された音声入力が、認識された音声入力を該エントリのリストと比較することにより、比較の結果に基づいて最も良く一致するエントリの候補リストを生成するために使用される。本発明の一局面に従って、候補リストは、認識された音声入力を該エントリのフラグメントと比較することによって生成される。完全なリストのエントリの代わりに、リストのエントリのフラグメントを比較ステップに使用することによって、計算労力が、認識された音声入力が完全なエントリのリストに一致させられる一致プロセスと比較して、最小化され得る。大規模なリストの場合において、各フラグメントは、リストのエントリにおいて繰り返し使用され得る。例えば、目的地の場合において、フラグメントstreetまたはstrasseが、多くのリストにおいて提示され得る。さらに、リストのエントリに対する都市と通りとの組み合わせの場合において、都市名は、当該都市の全ての通りに対して存在し得る。結果として、フラグメントのリストは、元々のリストよりもずっと短くなり得る。さらに、フラグメント自体もまた、対応するリストのエントリよりも短くなる。それらの局面が共に、実行時間能力の顕著な増加をもたらす。
好適な実施形態に従って、少なくとも1つのフラグメントが、リストの各エントリに提供される。さらに、少なくとも1つのワイルドカードを各フラグメントに加えることが可能である。フラグメント化によって、フラグメントは、リストのエントリの一部分だけを表す。さらに、ワイルドカードが、リストのエントリのフラグメントが生成されたときに考慮されないリストのエントリの一部分を表す。好適には、ワイルドカードは、他のもの全てに対して一様に一致する。これは、フラグメント自体が、フラグメントと関連付けられる音声入力の一部分に対して正確に一致し、そして、(音声入力の)他のもの全てが、ワイルドカードに一致することを意味する。一致ステップの間のワイルドカードの影響が、完全には回避され得ないときであっても、影響は、最小化されるはずである。ワイルドカードの重みが、計算または実験テストによって決定され得る。
リストのエントリのフラグメント化が、実行されるときに、フラグメントのリストが、リストのエントリの実質的に全ての異なるフラグメントを含むことが好ましい。最も良く一致するエントリの候補リストの生成のために、認識された音声入力は、全ての異なるフラグメントを含むフラグメントのリストと比較される。フラグメントのこの完全なリストは、エントリの完全なリストよりも短くなり得る。多くのフラグメントが、多くの異なるリストのエントリに存在するときには、認識された音声入力は、より短いリストと比較されなければならないので、フラグメントの該完全なリストが、一致ステップに対して使用されるときには、計算能力が、最小化され得る。
一致プロセスの追加のステップにおいて、次に、各フラグメントに対するスコアを計算することが可能であり、該スコアは、認識された音声入力が、該フラグメントと比較されたときに、どの程度適切に、認識された音声入力が、フラグメントに適合するかの測定基準である。スコアに基づいて、次に、リストの最も良く一致するエントリを選択することが可能である。そうするために、スコアが、フラグメントのリストの各フラグメントに対して計算され得、そして、リストのエントリのスコアが、リストのエントリを構築するフラグメントのスコアを加算することによって、リストのエントリに対して計算され得る。2つの異なるスコアの計算が必要であるときであっても、リストのエントリのスコアに到達するためにスコアを単に加算することは、計算的な観点において、完全なリストのエントリに対する認識された音声入力の一致よりもかなり容易である。
フラグメントは、1つまたはいくつかのワイルドカードを伴い得、該1つまたはいくつかのワイルドカードは、一方の側もしくは両側に提供されるか、どちら側にも提供されないかであり得る。ワイルドカードが提示されないときには、これは、リストのエントリが、非常に短くなり得るので、リストのエントリは、さらにフラグメント化され得ないことを意味する。フラグメントの異なる側に異なるワイルドカードを使用することが、さらに可能である。例えば、第1のワイルドカードは、第1の側に第1の重みを有し、第2のワイルドカードは、フラグメントの第2の側に第2の重みを有する。さらに、フラグメントの両側には、ワイルドカードを提供せず、ワイルドカードをフラグメントの一方の側に提供することが可能である。これが、フラグメントが音声入力において現れるフラグメントの場所をより良くモデリングすることに役立つ。ワイルドカードが、一方の側にだけ提供されたことが決定された場合には、ワイルドカードが提供されていない側もまた、決定される。次に、認識された音声入力の対応する側が決定され得、そして、フラグメントに対する認識された音声入力の一致が、認識された音声入力の当該側に提供された認識された音声入力の一部分に基づいて実行され得る。例えば、がワイルドカードを表すフラグメントstrasseは、通常、都市と通りとのリストのエントリの場合において、発話の最も右側の部分に一致させられる。1つのワイルドカードだけを有するフラグメントの別の有利な点は、発話に対するフラグメントの一致は、事実上、認識される発話全体を必要とはせず、適切な側だけを必要とすることである。認識された音声入力/認識された発話の一方の側だけが、一致のために考慮されるときには、一致プロセスはまた、さらに加速され得る。1つのワイルドカードだけを有するかかる端のフラグメントはまた、リストのエントリをさらに正確にモデリングすることに役立ち、このことが、認識速度をかなり改善し得る。
さらに、エントリのリストにおけるエントリもまた、ワイルドカードを含むことが可能である。これらのワイルドカードは、ユーザがリストのエントリの名前を発するという事実だけでなく、リストのエントリが完全な文章に埋め込まれている(例えば、「MunichのLindenstrasseに誘導してください」)という事実もモデリングすることに役立つ。
認識された音声入力の右側または左側だけを一致させる特徴はまた、適切なプルーニングメカニズムと組み合わせて一方の側から一致させることによって達成され得る。音声認識方法において、認識された音声入力は、リストのエントリの音声学的表示と比較される。かかる一致アルゴリズムの一例が、Levenshteinアルゴリズムであり、該Levenshteinアルゴリズムは、別のストリングを含むように1つのストリングを修正するために必要である編集動作の最も少ない数を計算する。かかる動作の間に、修正動作または編集動作の数が、計算を続ける必要のない他のフラグメントと比較して、所定のフラグメントに対して既に非常に高いことが検出され得る。このメカニズムは、音声認識において「プルーニング」という表現で知られている。次に、かかるプルーニングメカニズムが、ワイルドカードがフラグメントに存在する認識された音声入力の他方の側に適用され得る。
フラグメントの一方の側が認識された音声入力の一部分だけに一致させられる一致アルゴリズムに対するプルーニングメカニズムの有利な点は、発話における切断点に対する先見的な推測を必要としないことである。不利な点は、能力を増加させるための、左から右への一致と右から左への一致との組み合わせが、可能ではないこと、または容易には可能ではないことである。フラグメント化は、フラグメントの正しい順序における連結が、必ずしも、元々のリストのエントリを与える必要はないという意味で、一対一である必要はない。リストのエントリのフラグメントは、1つのリストのエントリに対するフラグメントが重複するように選択されることが可能である。さらに、リストのエントリのフラグメントは、リストのエントリのフラグメントがリストのエントリの一部分だけを包含する(いわゆるアンダーラップ)ように選択されることが可能である。さらに、両方の組み合わせが可能であり、一部のフラグメントは重複するフラグメントであるが、同じリストのエントリの他のフラグメントは完全なリストのエントリを包含しないことを意味する。さらに、重複は、リストのエントリの全ての部分がちょうど2つのフラグメントによって包含されるように完了し得るが、一部のフラグメントが、1つまたは2つの名前またはサブユニットに重複する不完全な重複として使用することも可能である。
リストのエントリに対して結果として生じるスコアを計算するために、異なるフラグメントのスコアが編集されるときには、正規化されたスコアを計算することが望ましいことがあり得、正規化されたスコアは、リストのエントリのスコアを計算するために加算される。この正規化は、異なるスコアを互いに比較し得るために必要である。正規化を実行する1つの可能性は、認識された結果に対して単一のワイルドカードの記号を一致させることによって決定され得る中立スコアを計算することである。次に、この中立スコアは、異なるフラグメントに対して計算された全てのスコアから減算され得る。さらに、ゼロが中立スコアになるようにフラグメントのスコアを正規化し、そして、次に、完全なリストのエントリに属するフラグメントのスコアを加算することが、可能である。ゆえに、各リストのエントリのスコアは、該リストのエントリのフラグメントの正規化されたスコアを加算することによって獲得される。リストのエントリのスコアの計算のために、フラグメントの数とサイズとを明確に考慮することもまた、可能である。正規化の別の可能性は、全てのフラグメントに対するフラグメント固有の中立スコアの決定である。これは、異なる音声入力に対する多数の音声認識ステップが実行されたときと、フラグメントに対する異なる音声入力に対する認識結果に基づいて、フラグメント固有のスコアが計算され得るときとに、可能であり、異なる音声入力に対する平均スコアであるフラグメント固有のスコアが計算され得る。フラグメント固有のスコアまたは予測スコアは、特定のフラグメントのスコアに対する推計学的予測値であり、そして、観察されたスコアに対する予測値の差をモデリングするために使用され得る。
本発明の一実施形態において、スコアは、リストのエントリにおけるフラグメントの位置に依存しない。しかしながら、フラグメントごとに単一のスコアを使用する代わりに、フラグメントに対して位置ベースのスコアを使用することもまた、可能である。かかる位置ベースのスコアが使用される場合において、「linden−furt」に対するスコアは、「furt−linden」に対するスコアとは異なり、または「linden−strasse」に対するスコアは、「linden−strasse」に対するスコアとは異なる。
フラグメントの処理の最適化と、それぞれのスコアの処理の最適化とのために、樹状構造でフラグメントを提供することが可能である。この樹状構造は、リストのエントリのスコアを計算するために異なるフラグメントのスコアを加算するために使用され得る。これは、以下の例において理解され得る。リストが、エントリLindenfurtとエントリLindendorfとを含むときには、Lindenfurtに対するスコアは、フラグメントLinに対するスコア+フラグメントdenに対するスコア+フラグメントfurtに対するスコアに対応し、Lindenのスコア+furtのスコアに対応する。LindendorfとLindenfurtとのスコアの計算に対して、Lindenに対するスコアは、既に計算されているので、樹状構造が使用されるときには、1つの加算ステップが回避され得る。
フラグメントベースの一致は、本願の導入部分において述べられた2つのステップの認識ステップと組み合わせて使用され得る。これは、次に、リストのエントリのフラグメントに基づいて決定された最も良く一致するエントリの候補リストが、追加の認識ステップに対する基準として使用され得ることを意味する。この第2のステップにおいて、リストにおける最も適切なエントリは、候補リストにおいて列挙されたエントリの音声学的表示または音響学的表示を音響入力に一致させることによって決定される。候補リストは、計算されたスコアに依存してリストのエントリを区分することによって生成され得、n番目の最も良いリストのエントリは、候補リストを構築するn番目の最も良いスコアを有する。
フラグメントに基づいた一致に加えて、候補リストを生成するために、認識された音声入力を完全なリストのエントリの一部にさらに一致させることが可能である。例えば、良いスコアがフラグメントに対して計算されたときには、最も良く一致するエントリの候補リストが生成される前に、認識された音声入力に該フラグメントを含むリストのエントリをさらに一致させることが有利であり得る。この場合に、完全な一致は、単に、リストのエントリの一部において実行されるが、リストの全てのエントリにおいては実行されないので、認識された音声入力が、リストのエントリの完全な数と比較された場合よりも低くなる。
2つのステップの一致の可能な実施形態は、以下の通りであり得る:第1のステップにおいて、音声入力の認識ステップが、開音素ループを使用して実行され得る。次に、認識された音声入力が、フラグメントのリストを使用してリストのエントリに一致させられる。第3のステップとして、完全な一致ステップが、実行され、該完全な一致ステップにおいては、認識された音声入力が、完全なリストのエントリと比較される。このステップは、可能な一致結果のリストをさらに短くし得る。第4のステップにおいて、実際の音声認識が実行され得る。
本発明の一実施形態において、フラグメントへのリストのエントリのフラグメント化は、サブユニットレベル、例えば、音素レベルに基づき得る。リストのエントリが、都市名と通りの名前との組み合わせを含むときには、少なくとも、都市と通りとの間でフラグメント化することが有利であり得る。しかしながら、都市名と通りの名前とは、さらにフラグメント化され得ることが理解されるべきである。フラグメント化はまた、データを格納するためのメモリの必要条件を軽減することに役立つ。
本発明は、さらに、音声入力によってエントリのリストからエントリを選択する音声認識システムに関し、該音声認識システムは、データベースを備え、該データベースは、エントリのリストとフラグメントのリストとを含み、各フラグメントは、上記のように、リストのエントリの少なくとも一部分を表す。音声認識モジュールは、音声入力を認識し、比較結果に基づいて最も良く一致するエントリの候補リストを生成するために、認識された音声入力をエントリのリストと比較する。本発明の一局面に従って、音声認識モジュールは、認識された音声をフラグメントのリストと比較することにより、候補リストを生成する。音声認識システムは、さらに上で詳細に述べられたように機能し得る。
本発明はさらに、コンピュータプログラム製品に関し、該コンピュータプログラム製品は、命令がコンピュータシステムのプロセッサによって実行されたときに、命令が、上でさらに詳細に述べられたような方法を行う命令を含む。
本発明は、さらに以下を提供する。
(項目1)
音声入力によってエントリのリストからエントリを選択する音声認識方法であって、該方法は、以下のステップ:
−音声入力を検出するステップと、
−該音声入力を認識するステップと、
−該リストのエントリのフラグメントを提供するステップと、
−該認識された音声入力を該エントリのリストと比較することにより、該比較の結果に基づいて最も良く一致するエントリの候補リストを生成するステップであって、該候補リストを生成するために、該認識された音声入力は、該エントリの該フラグメントと比較される、ステップと
を包含する、方法。
(項目2)
少なくとも1つのフラグメントが、上記リストの各エントリに提供される、項目1に記載の方法。
(項目3)
上記フラグメントは、少なくとも1つのワイルドカードを伴い、該ワイルドカードは、上記リストのエントリのフラグメントにおいて考慮されない、該リストのエントリの一部分を表す、項目1に記載の方法。
(項目4)
上記リストのエントリの実質的に全ての異なるフラグメントを含むフラグメントのリストが提供され、上記候補リストを生成するために、上記認識された音声入力は、該フラグメントのリストと比較される、項目1に記載の方法。
(項目5)
上記認識された音声入力が、上記フラグメントと比較されたときに、スコアが、該フラグメントに対して計算され、該スコアは、どのように適切に、該認識された音声入力が、1つのフラグメントに適合するかの測定基準である、項目1に記載の方法。
(項目6)
上記スコアは、上記フラグメントのリストの各フラグメントに対して計算される、項目4および項目5に記載の方法。
(項目7)
1つのリストのエントリに対するスコアは、該リストのエントリを構築するフラグメントのスコアを加算することによって計算される、項目5に記載の方法。
(項目8)
上記ワイルドカードが、上記フラグメントの一方の側、該フラグメントの他方の側、または該フラグメントの両側に加えられる項目3に記載の方法。
(項目9)
上記ワイルドカードは、該ワイルドカードが、どの認識された音声入力に対しても実質的に一様に一致するように選択される、項目3に記載の方法。
(項目10)
上記フラグメントは、異なるワイルドカードを伴い、上記認識された音声入力が該フラグメントと比較されたときに、各ワイルドカードは、異なる重みを有する、項目3に記載の方法。
(項目11)
上記ワイルドカードが、上記フラグメントの一方の側だけに提供されたときには、どちら側に、該ワイルドカードが提供されていないかを決定し、上記認識された音声入力の対応する側が決定され、該フラグメントに対する認識された音声入力の一致が、実質的に、該認識された音声入力の対応する側に提供された認識された音声入力の一部分に基づいて実行される、項目3に記載の方法。
(項目12)
上記ワイルドカードが、上記フラグメントの一方の側だけに提供されたときには、上記認識された音声入力の対応する側が決定され、プルーニングメカニズムが、該認識された音声入力の他方の側に適用される、項目3に記載の方法。
(項目13)
上記フラグメントのリストに対して上記認識された音声入力を一致させたときに計算された上記スコアは、正規化され、該正規化されたスコアは、各リストのエントリのスコアを計算するために加算される、項目5に記載の方法。
(項目14)
中立スコアが、上記認識された音声入力に対して上記少なくとも1つのワイルドカードを一致させることによって計算され、該中立スコアは、上記異なるフラグメントに対して計算された全てのスコアから減算される、項目5に記載の方法。
(項目15)
上記フラグメントは、樹状構造で提供される、項目1に記載の方法。
(項目16)
上記リストのエントリを構築する異なるフラグメントに対するスコアが、該フラグメントの樹状構造に基づいて加算される、項目15に記載の方法。
(項目17)
位置ベースのスコアが、上記フラグメントに対して計算され、該位置ベースのスコアにおいては、該フラグメントに対するスコアは、上記リストのエントリにおける該フラグメントの位置に依存する、項目5に記載の方法。
(項目18)
上記リストのエントリのフラグメントに基づいて決定された最も良く一致するエントリの上記候補リストは、認識ステップの基準として使用される、項目1に記載の方法。
(項目19)
上記リストのエントリは、以下の情報:個人名、住所、都市名、通りの名前、関心事、歌のタイトルのうちの少なくとも1つを含む、項目1に記載の方法。
(項目20)
上記最も良く一致するエントリのリストは、計算されたスコアに依存して上記リストのエントリを区分することによって生成され、n番目のリストのエントリは、上記候補リストを構築する最も良いスコアを有する、項目1に記載の方法。
(項目21)
上記リストのエントリの上記フラグメントに対して上記認識された音声入力を一致させるために、コンテキストに感度の高いLevenshteinアルゴリズムが使用される、項目1に記載の方法。
(項目22)
上記中立スコアを計算するために、フラグメント固有の中立スコアが計算され、上記リストのエントリに対するスコアが、該フラグメント固有のスコアに基づいて計算される、項目14に記載の方法。
(項目23)
上記認識された音声入力は、さらに、上記候補リストを生成するために、上記完全なリストのエントリの少なくとも一部分と比較される、項目1に記載の方法。
(項目24)
フラグメントへの上記リストのエントリのフラグメント化は、サブワード単位のレベルで実行される、項目1に記載の方法。
(項目25)
上記リストのエントリは、都市名と通りの名前との組み合わせを含み、フラグメントへのフラグメント化は、少なくとも、都市名と通りの名前との間で実行される、項目1に記載の方法。
(項目26)
上記リストのエントリの上記フラグメントは、1つのリストのエントリに対する該フラグメントが、重複するように選択される、項目1に記載の方法。
(項目27)
上記リストのエントリの上記フラグメントは、該フラグメントが該リストのエントリの一部分だけを含むように選択される、項目1に記載の方法。
(項目28)
上記リストのエントリは、ワイルドカードと共に格納され、該ワイルドカードは、該リストのエントリから1つのエントリを選択するユーザの発話が、該リストのエントリ自体よりも多くのものを含むという事実を考慮する、項目1に記載の方法。
(項目29)
音声入力によってエントリのリストからエントリを選択する音声認識システムであって、
−エントリのリストとフラグメントのリストとを含むデータベースであって、各フラグメントは、1つのリストのエントリの一部分を表す、データベースと、
−音声入力を認識し、該認識された音声入力を該エントリのリストと比較することにより、該比較結果に基づいて最も良く一致するエントリの候補リストを生成する音声認識モジュールであって、該音声認識モジュールは、該認識された音声入力を該フラグメントのリストと比較することにより、該候補リストを生成する、音声認識モジュールと
を備えている、音声認識システム。
(項目30)
上記音声認識システムは、項目1〜項目28のうちのいずれか1項に記載の方法に従って動作する、項目29に記載の音声認識システム。
(項目31)
コンピュータシステムのプロセッサによって実行されたときに、項目1〜項目28のうちのいずれか1項に記載の方法を行うような命令を含む、コンピュータプログラム製品。
(摘要)
音声入力によってエントリのリストからエントリを選択する音声認識方法であって、該方法は、以下のステップ:
−音声入力を検出するステップと、
−該音声入力を認識するステップと、
−該リストのエントリのフラグメントを提供するステップと、
−該認識された音声入力を該エントリのリストと比較することにより、該比較の結果に基づいて最も良く一致するエントリの候補リストを生成するステップであって、該候補リストを生成するために、該認識された音声入力は、該エントリの該フラグメントと比較される、ステップと
を包含する、方法。
本発明のこれらの潜在的な対象、特徴、および利点、そして、本発明の他の潜在的な対象、特徴、および利点が、本発明の実施形態に対する以下の記述と以下の例とからさらに充分に明らかになる。しかしながら、本発明の範囲は、図面に示されたどの実施形態によっても限定されないということが理解される。
図1は、フラグメントベースの手法を使用した音声認識システムを概略的に示す。 図2は、フラグメントベースの手法の主なステップを伴った流れ図を示す。 図3は、音声認識のためのフラグメントベースの手法の一部のステップの詳細な図を含む別の流れ図を例示する。 図4は、フラグメントの樹状構造の例を示す。
図1において、音声認識システムが示され、該音声認識システムは、エントリの大規模なリストからエントリを選択するためにフラグメントベースの手法を使用する。図1に示されたシステムは、車両の目的地の場所の音声駆動の選択、メディアデータベースのメディアファイルの選択、住所録における個人の名前を選択することなどのために使用され得る。システムは、車両環境において使用され得るが、示されたシステムは、非車両環境において使用されるスタンドアロンユニットでもあり得る。音声認識システムは、ユーザ11から音声入力を受信する音声認識モジュール10を含む。音声認識モジュール10は、エントリのリスト13を含むデータベース12と関連付けて使用される。エントリのリストは、1つの国またはいくつかの国などの所定の地理的範囲に対する都市と通りとの組み合わせを含み得る。示された実施形態において、リスト13は、異なるエントリ14を含む。示された実施形態において、リストのエントリ14は、都市Aと、通りBなどの住所との組み合わせである。例えば、リストのエントリは、以下:Frankfurt Lindenstrasse、またはUlm Olgastrasse、 Muenchen Wettersteinplatzなどであり得る。エントリの元々のリストに加えて、第2のリスト15が提供され得、該リスト15は、リスト13のエントリ14からの異なるフラグメントを含む。好適には、フラグメントは、リスト15において全てのリストのエントリに提供される。リストのエントリは、フラグメント化される。なぜならば、かなり大規模なリストに対しては、フラグメントを一致させることが、実行時間の点において、完全なリストのエントリを一致させることよりもかなり容易であるからである。フラグメント化は、音素または何らかの他のサブワードレベルで実行され得る。どのリストのエントリをどこでフラグメント化するかというフラグメント化の決定は、予測認識速度、メモリの必要条件、および実行時間能力に基づき得る。都市と通りとの組み合わせの場合で示された実施形態において、ほとんどの場合においてデータを格納するためのメモリの必要条件を軽減させるために、少なくとも、都市と通りとの間でフラグメント化することが、有利であり得る。上記の例に対して、フラグメント化は、以下:
Frankfurt Lindenstrasse=>Frank|furt|Linden|strasse
Ulm Olgastrasse=>Ulm|Olga|strasse
Muenchen Wettersteinplatz=>Muen|chen|Wetter|stein|platz
Hamburg Steinstrasse=>Ham|burg|Stein|strasse
であり得る。
リストにおいて、エントリは、通常、音声学的に書き表されたエントリとして格納されることにより、それらを、音声入力11の認識された音素ストリングと比較する。簡潔に例示するために、リストのエントリの音声表記法が示されている。上述の例から理解され得るように、先ほど解体されたリストのエントリは、現在、共通のフラグメント「strasse」と「stein」とを有する。リストが大規模になるほど、この結果は顕著になる。結果として、特有のフラグメントのリストまたは異なるフラグメントのリストは、元々のリストよりも短くなり得る。さらに、フラグメント自体も、完全なリストのエントリよりも短い。これら両方の局面が、大規模なリストにおけるエントリの選択のための音声認識を最適化および加速することに役立つ。図面から理解され得るように、リスト15におけるフラグメントは、記号によって表されたワイルドカードを伴う。リストにおいて、フラグメントaは、左側にワイルドカードを有し、一方、他のフラグメントbは、右側にワイルドカードを有する。さらに、ワイルドカードは、両側にも提供され得る。非常に短いリストに対しては、フラグメントがリストのエントリに対応するということが起こるので、ワイルドカードは提供されない。上述の例において、フラグメントは、strasseまたはolgaなどのように提供され得る。使用されるワイルドカードは、必ずしも同じ属性を有する必要はない。例えば、olga$のように、左側と右側とで異なるワイルドカード記号を使用し、2つのワイルドカードの重みの差を表し得る。
音声認識モジュール10が、例えば、開音素ループまたは何らかの他のサブワード単位を使用して音声入力を認識するための第1の認識ステップを実行したときに、認識された音声入力が、最も良く一致するフラグメントを決定するために、フラグメントのリスト15と比較される。次に、フラグメントの一致に基づいて、最も良く一致するリストのエントリの候補リストが計算される。最も良く一致するリストのエントリのこのリストは、候補リスト20に対応する。この短い候補リストは、最も良く一致するエントリMが、さらなる選択のためにユーザに示されているリストであり得る。しかしながら、この候補リストは、2つのステップの音声認識方法と関連付けても使用され得、該2つのステップの音声認識方法においては、別の認識ステップが、短いリストにおいて実行される。この追加の認識ステップにおいて、同じ音声入力に対する、リストにおける最も適切なエントリが、候補リストにおいて列挙されたエントリの音声学的音響表示を音響入力に一致させ、そして、最も良く一致するエントリを決定することによって決定される。第2のステップは、第1のステップよりもかなり多くの計算能力を必要とする。計算時間を減少させるために、リスト20におけるリストのエントリの数は、リスト13のリストのエントリの数と比較して大幅に減少させられる。例えば、リストのエントリの大規模なリスト13は、数万または数千万のエントリのリストを含み得る。最も良く一致するエントリの第2の候補リスト20は、かなり少なく、例えば、数百または数千のエントリを有し得る。次に、第2の認識ステップが、かかる短い候補リスト20において実行され得る。次に、この第2のステップの最も良く一致する結果が、ディスプレイ30に示され得る。第2の一致ステップは、必ずしも必要であるわけではないことが理解されるべきである。1つの一致ステップだけが実行されることも可能である。
流れ図が、図2に示され、該流れ図は、音声認識方法の主なステップを示している。方法は、ステップ41において開始する。ステップ42において、音声入力11が認識される。ここで、音素シーケンスまたは音素ストリングが、音声認識モジュールによって認識される。音声入力の音素シーケンスが生成されると、フラグメントのリスト15が、提供される必要がある(ステップ43)。さらに、フラグメントのリストは、システムに既に格納された所定のリストであり得る。リストのエントリを変更する場合に、一致ステップが実行される前に、フラグメントのリストが、生成されることも可能である。フラグメントのリストに対する認識された音素ストリングの一致が、ステップ44において実行される。どの程度適切に、認識された音素ストリングが、一致されたフラグメントに対応しているかを決定するために、リスト15の各フラグメントに対して、スコアが決定され得る(ステップ45)。異なるフラグメントに対するスコアが既知であるときには、ステップ46においてエントリのリストに対するスコアを決定することが可能である。どのフラグメントによって、完全なリストのエントリが連結されるかは、既知である。したがって、リストのエントリを構築する異なるフラグメントのスコアは、単に、リストのエントリに対するスコアを決定するために追加される必要があるだけである。スコアに依存して、最も良く一致するエントリの候補のリストが、リスト47において決定され得る。次に、候補リストは、追加の一致ステップに対して使用され得るか、最も良く一致するエントリが、さらなる選択または確認のためにユーザに示されるかである。しかしながら、この第2のステップは、従来技術から公知であり、さらに詳細には記述しない。示された実施形態において、方法は、ステップ48において終了する。
図3において、方法がさらに詳細に示されている。図2と関連付けて述べられたように、フラグメントがステップ43において提供された後に、ステップ51において、フラグメントがワイルドカードを伴うか否かが尋ねられる。フラグメントがワイルドカードを伴う場合には、ワイルドカードを伴う側が、ステップ52において決定され得る。フラグメントが、端のフラグメントである場合には、フラグメントの場所をより良くモデリングし、そして、フラグメントが発話において現われる場所をモデリングするために全てのフラグメントの両側にワイルドカードに提供しないことが、有利であり得る。都市−通りの対を含むリストのエントリの場合に、例えば、フラグメント「strasse」は、通常、発話の最も右側の部分に一致させられ得る。それに応じて、ステップ53において、元々の音声入力における対応する側が、決定される。結果として、fragmentの組み合わせが提供されたときには、対応する認識された音声入力の左側の部分は、あまり考慮されないか、全く考慮されないかであり、一方、組み合わせが、fragmentであるときには、認識された音声入力の左側の部分を意味する第1の部分が、一致のために使用される。さらに、例えば、strassenhausenおよびolgastrasseのようなリストのエントリがある場合には、同じフラグメントに対して異なる変形例、例えば、strasseおよびstrasseを使用することが可能である。これが、より良いスコアリングをもたらし得る。認識された音声入力の一方の側だけが、考慮されたときに、一致プロセスは、かなり速くなる。発話の右側部分および左側部分だけのこの一致は、適切なプルーニングメカニズムと組み合わせた右側からの一致によって達成され得る。これは、発話における切断点に対する先見的な推測を必要としないという有利な点を有する。不利な点は、左から右への一致と右から左への一致との組み合わせが、可能ではないこと、または容易には可能ではないことである。ワイルドカードがフラグメントにおいて検出されなかった場合には、方法は、認識された音声入力をフラグメントと直接的に比較する(ステップ54)。
本発明の一局面に従って、フラグメント化は、正しい順序におけるフラグメントの連結が、必ず元々のリストのエントリを与えるように実行される必要はない。フラグメントは、重複するか、フラグメントは、リストのエントリの一部分だけを包含するかであり得る。しかしながら、重複するフラグメントを用いて一致ステップを実行することが可能である。重複は、一致の精度を改善さえし得る。ステップ54における比較ステップに対して、コンテキストに感度の高いLevenshtein距離アルゴリズム、または何らかの他の適切な一致アルゴリズムが使用され得る。当業者には公知であるように、Levenshteinアルゴリズムは、1つのストリングを別のストリングに修正するために必要な編集動作の最も少ない数を計算する。これを計算する最も一般的な方法は、行列を使用した動的なプログラミング手法による。行列において、第1のストリングから第2のストリングに変化させるために必要である編集動作が理解され得る。重み付けられたアルゴリズムの場合において、1つの文字を他の文字に変化させる費用は、一定ではないことがあり得る。本例においては、費用はコンテキストに依存していた。しかしながら、その他任意の一致アルゴリズムが使用され得ることが理解されるべきである。認識された音声入力が、フラグメントに一致したときに、各フラグメントに対するスコアが獲得される。異なるスコアのより良い比較のために、スコアは正規化され、それにより、例えば、ゼロが中立スコアになり得る。次に、完全なリストのエントリに属する全てのフラグメントのスコアが、加算される。リストのエントリのスコアを計算するために、フラグメントの数とサイズとを明確に考慮することも可能である。一実施形態において、中立スコアは、認識結果に対して単一のワイルドカードの記号を一致させることによって計算され得る。次に、これは、正規化されたスコアが獲得されるように、全てのフラグメントのスコアから減算される必要がある。さらに、フラグメント固有の中立スコアを使用することが可能であり、該フラグメント固有のスコアは、各フラグメントに依存する。例えば、フラグメントに対する予測スコアを利用したい場合と、観察スコアに対する予測スコアの差をモデリングすることを望む場合とに、フラグメント固有の中立スコアが使用され得る。予測スコアは、多種多様な異なる音声入力に対してフラグメントを一致させることによって獲得されたスコアに対する推計学的な予測値であり得る。全ての音声入力に対して、フラグメントは、固有のスコアを有する。1つのフラグメントに対する全ての固有のスコアの平均値が、フラグメント固有のスコアであり得る。したがって、最後に重要なことに、ステップ55において各フラグメントに対するスコアを計算した後と、ステップ56においてスコアを正規化した後とにおいて、異なるリストのエントリに対するスコアが、ステップ57において計算され得る。
図4において、実施形態は、どのように、フラグメントの効果的な構成が獲得され得るかを示している。図4に示された実施形態において、4つの異なるリストのエントリ、Lindenweg、Lindenstrasse、Lindenfurt、Lindendorfが、示されている。スコアの格納とスコアの計算のために、樹状構造が、完全なリストの効果的な格納のために使用され得る。リストのエントリは、以下のフラグメント、Lin|den|furt、Lin|den|dorf、Lin|den|strasse、Lin|den|wegを有する。したがって、LindenfurtのスコアはLinのスコア+denのスコア+furtのスコアであり得、Lindenのスコア+furtのスコアに対応する。図4に示されているように、フラグメント61「Lin」は、第1のスコアs1を有し、フラグメント「den」は、第2のスコアs2を有するなどであり得る。4つの異なるエントリに対するスコアを計算するために、linとdenとのスコアが、一度だけ加算されなければならず、それにより、4つの異なるリストのエントリに対するスコアの決定のために、加算動作が5回だけ実行されることが必要なだけである。フラグメントごとに単一のスコアsを使用する代わりに、フラグメントに対して位置ベースのスコアを使用することも可能であり得る。これは、フラグメントA+フラグメントBのスコアは、フラグメントB+フラグメントAのスコアに対応しないことを意味する。
フラグメントベースのスコアが既知であるときには、完全なリストのエントリに対するスコアが既知であり、そして、最も良く一致するエントリのリストが、スコアに基づいたリストを区分することによって計算され得る。
要するに、上記の記述から理解され得るように、完全なリストのエントリの代わりにフラグメントを使用した音声認識方法は、正しい選択されたリストのエントリを見つけるために必要とされる計算能力と時間とを最適化することに役立ち得る。
10 音声認識モジュール
11 ユーザ
12 データベース
13 エントリのリスト
14 エントリ
15 第2のリスト
20 候補リスト
30 ディスプレイ

Claims (27)

  1. 音声認識方法であって、該方法において、音声入力に対応するエントリがエントリのリストから選択され、該方法は、
    該音声入力を検出するステップと、
    該音声入力の音素シーケンスを認識するステップと、
    エントリのリストにおいてエントリのフラグメントのリストを提供するステップであって、該フラグメントは、サブワードまたは音素レベルに基づく、ステップと、
    該認識された音声入力の音素シーケンスを該フラグメントのリストと比較することにより、比較スコアに基づいて最も良く一致するエントリの候補リストを生成するステップと
    を包含し、
    該認識された音声入力がフラグメントと比較されたときに、比較スコアが該フラグメントに対して計算され、該比較スコアは、どのように適切に、該認識された音声入力が該フラグメントに適合するかの測定基準であり、1つのリストのエントリに対するスコアが、該リストのエントリを構築する全フラグメントの比較スコアに基づいて計算され、
    該フラグメントは、異なるワイルドカードを伴い、各ワイルドカードは、該リストのエントリのフラグメントにおいて考慮されない、該リストのエントリの一部分を表し、各ワイルドカードは、該認識された音声入力が該フラグメントと比較されるときに異なる重みを有する、方法。
  2. 少なくとも1つのフラグメントが、前記リストの各エントリに提供される、請求項1に記載の方法。
  3. 前記リストのエントリの実質的に全ての異なるフラグメントを含むフラグメントのリストが提供され、前記候補リストを生成するために、前記認識された音声入力は、該フラグメントのリストと比較される、請求項1〜2のいずれか一項に記載の方法。
  4. スコアは、前記フラグメントのリストの各フラグメントに対して計算される、請求項1〜3のいずれか一項に記載の方法。
  5. 1つのリストのエントリに対するスコアは、該リストのエントリを構築するフラグメントのスコアを加算することによって計算される、請求項4に記載の方法。
  6. ワイルドカードが、前記フラグメントの一方の側、該フラグメントの他方の側、または該フラグメントの両側に加えられる、請求項1〜5のいずれか一項に記載の方法。
  7. 前記ワイルドカードは、該ワイルドカードが、どの認識された音声入力に対しても実質的に一様に一致するように選択される、請求項1〜6のいずれか一項に記載の方法。
  8. 前記ワイルドカードが、前記フラグメントの一方の側だけに提供されたときには、どちら側に、該ワイルドカードが提供されていないかを決定し、前記認識された音声入力の対応する側が決定され、該フラグメントに対する認識された音声入力の一致が、実質的に、該認識された音声入力の対応する側に提供された認識された音声入力の一部分に基づいて実行される、請求項1〜7のいずれか一項に記載の方法。
  9. 前記ワイルドカードが、前記フラグメントの一方の側だけに提供されたときには、前記認識された音声入力の対応する側が決定され、プルーニングメカニズムが、該認識された音声入力の他方の側に適用される、請求項1〜8のいずれか一項に記載の方法。
  10. 前記フラグメントのリストに対して前記認識された音声入力を一致させたときに計算された前記スコアは、正規化され、該正規化されたスコアは、各リストのエントリのスコアを計算するために加算される、請求項1〜9のいずれか一項に記載の方法。
  11. 中立スコアが、前記認識された音声入力に対して少なくとも1つのワイルドカードを一致させることによって計算され、該中立スコアは、前記異なるフラグメントに対して計算された全てのスコアから減算される、請求項1〜10のいずれか一項に記載の方法。
  12. 前記フラグメントは、樹状構造で提供される、請求項1〜11のいずれか一項に記載の方法。
  13. 前記リストのエントリを構築する異なるフラグメントに対するスコアが、該フラグメントの樹状構造に基づいて加算される、請求項12に記載の方法。
  14. 位置ベースのスコアが、前記フラグメントに対して計算され、該位置ベースのスコアにおいては、該フラグメントに対するスコアは、前記リストのエントリにおける該フラグメントの位置に依存する、請求項1〜13のいずれか一項に記載の方法。
  15. 前記リストのエントリのフラグメントに基づいて決定された最も良く一致するエントリの前記候補リストは、認識ステップの基準として使用される、請求項1〜14のいずれか一項に記載の方法。
  16. 前記リストのエントリは、以下の情報:個人名、住所、都市名、通りの名前、関心事、歌のタイトルのうちの少なくとも1つを含む、請求項1〜15のいずれか一項に記載の方法。
  17. 前記最も良く一致するエントリのリストは、計算されたスコアに依存して前記リストのエントリを区分することによって生成され、n番目のリストのエントリは、前記候補リストを構築する最も良いスコアを有する、請求項1〜16のいずれか一項に記載の方法。
  18. 前記リストのエントリの前記フラグメントに対して前記認識された音声入力を一致させるために、コンテキストに感度の高いLevenshteinアルゴリズムが使用される、請求項1〜17のいずれか一項に記載の方法。
  19. 前記中立スコアを計算するために、フラグメント固有の中立スコアが計算され、前記リストのエントリに対するスコアが、該フラグメント固有のスコアに基づいて計算される、請求項11に記載の方法。
  20. 前記認識された音声入力は、さらに、前記候補リストを生成するために、完全なリストのエントリの少なくとも一部分と比較される、請求項1〜19のいずれか一項に記載の方法。
  21. フラグメントへの前記リストのエントリのフラグメント化は、サブワード単位のレベルで実行される、請求項1〜20のいずれか一項に記載の方法。
  22. 前記リストのエントリは、都市名と通りの名前との組み合わせを含み、フラグメントへのフラグメント化は、少なくとも、都市名と通りの名前との間で実行される、請求項1〜21のいずれか一項に記載の方法。
  23. 前記リストのエントリの前記フラグメントは、1つのリストのエントリに対する該フラグメントが、重複するように選択される、請求項1〜22のいずれか一項に記載の方法。
  24. 前記リストのエントリの前記フラグメントは、該フラグメントが該リストのエントリの一部分だけを含むように選択される、請求項1〜23のいずれか一項に記載の方法。
  25. 前記リストのエントリは、ワイルドカードと共に格納され、該ワイルドカードは、前記エントリのリストから1つのエントリを選択するユーザの発話が、該リストのエントリ自体よりも多くのものを含むという事実を考慮する、請求項1〜24のいずれか一項に記載の方法。
  26. 音声認識システムであって、該システムにおいて、音声入力に対応するエントリがエントリのリストから選択され、該システムは、
    エントリのリストとフラグメントのリストとを含むデータベースであって、各フラグメントは、1つのリストのエントリの一部分を表す、データベースと、
    音声入力を認識し、該認識された音声入力を該エントリのリストと比較することにより、該比較結果に基づいて最も良く一致するエントリの候補リストを生成する音声認識モジュールと
    を備えており、
    該音声認識モジュールは、該認識された音声入力を該フラグメントのリストと比較することにより、該候補リストを生成し、該フラグメントは、異なるワイルドカードを伴い、各ワイルドカードは、該リストのエントリのフラグメントにおいて考慮されない、該リストのエントリの一部分を表し、各ワイルドカードは、該認識された音声入力が該フラグメントと比較されるときに異なる重みを有する、システム。
  27. コンピュータに、請求項1〜25のいずれか一項に記載の方法を実行させるためのコンピュータプログラム。
JP2009003489A 2008-01-16 2009-01-09 フラグメントを使用した大規模なリストにおける音声認識 Expired - Fee Related JP5517458B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP08000772.7A EP2081185B1 (en) 2008-01-16 2008-01-16 Speech recognition on large lists using fragments
EP08000772.7 2008-01-16

Publications (2)

Publication Number Publication Date
JP2009169418A JP2009169418A (ja) 2009-07-30
JP5517458B2 true JP5517458B2 (ja) 2014-06-11

Family

ID=39434220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009003489A Expired - Fee Related JP5517458B2 (ja) 2008-01-16 2009-01-09 フラグメントを使用した大規模なリストにおける音声認識

Country Status (6)

Country Link
US (2) US8401854B2 (ja)
EP (1) EP2081185B1 (ja)
JP (1) JP5517458B2 (ja)
KR (1) KR20090079169A (ja)
CN (1) CN101515457B (ja)
CA (1) CA2650141C (ja)

Families Citing this family (143)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
EP2081185B1 (en) 2008-01-16 2014-11-26 Nuance Communications, Inc. Speech recognition on large lists using fragments
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
EP2221806B1 (en) 2009-02-19 2013-07-17 Nuance Communications, Inc. Speech recognition of a list entry
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US8401852B2 (en) 2009-11-30 2013-03-19 Microsoft Corporation Utilizing features generated from phonic units in speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10705794B2 (en) * 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
WO2012073275A1 (ja) 2010-11-30 2012-06-07 三菱電機株式会社 音声認識装置及びナビゲーション装置
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
KR20240132105A (ko) 2013-02-07 2024-09-02 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101772152B1 (ko) 2013-06-09 2017-08-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
CN104346151B (zh) * 2013-07-30 2018-04-27 联想(北京)有限公司 一种信息处理方法及电子设备
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
CN110797019B (zh) 2014-05-30 2023-08-29 苹果公司 多命令单一话语输入方法
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9953646B2 (en) 2014-09-02 2018-04-24 Belleau Technologies Method and system for dynamic speech recognition and tracking of prewritten script
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
KR102413067B1 (ko) * 2015-07-28 2022-06-24 삼성전자주식회사 문법 모델을 갱신하고, 문법 모델에 기초하여 음성 인식을 수행하는 방법 및 디바이스
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US10403278B2 (en) * 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11076039B2 (en) 2018-06-03 2021-07-27 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
CN111276147A (zh) * 2019-12-30 2020-06-12 天津大学 一种基于语音输入的饮食记录方法
CN112446975A (zh) * 2020-11-18 2021-03-05 平安普惠企业管理有限公司 考勤方法、系统、装置和计算机设备

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2815579B2 (ja) 1987-03-10 1998-10-27 富士通株式会社 音声認識における単語候補削減装置
US5202952A (en) 1990-06-22 1993-04-13 Dragon Systems, Inc. Large-vocabulary continuous speech prefiltering and processing system
US5566272A (en) 1993-10-27 1996-10-15 Lucent Technologies Inc. Automatic speech recognition (ASR) processing using confidence measures
US6065003A (en) 1997-08-19 2000-05-16 Microsoft Corporation System and method for finding the closest match of a data entry
JP2000047690A (ja) * 1998-07-29 2000-02-18 Meidensha Corp 音声認識装置における音素計算処理量削減方法
US6839669B1 (en) * 1998-11-05 2005-01-04 Scansoft, Inc. Performing actions identified in recognized speech
US6571210B2 (en) 1998-11-13 2003-05-27 Microsoft Corporation Confidence measure system using a near-miss pattern
US6922669B2 (en) * 1998-12-29 2005-07-26 Koninklijke Philips Electronics N.V. Knowledge-based strategies applied to N-best lists in automatic speech recognition systems
US6850886B2 (en) 1999-10-21 2005-02-01 Sony Corporation System and method for speech verification using an efficient confidence measure
JP2001312293A (ja) * 2000-04-28 2001-11-09 Matsushita Electric Ind Co Ltd 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体
US20020007379A1 (en) * 2000-05-19 2002-01-17 Zhi Wang System and method for transcoding information for an audio or limited display user interface
DE60016722T2 (de) 2000-06-07 2005-12-15 Sony International (Europe) Gmbh Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
US7155061B2 (en) * 2000-08-22 2006-12-26 Microsoft Corporation Method and system for searching for words and phrases in active and stored ink word documents
US6985861B2 (en) 2001-12-12 2006-01-10 Hewlett-Packard Development Company, L.P. Systems and methods for combining subword recognition and whole word recognition of a spoken input
DE10207895B4 (de) * 2002-02-23 2005-11-03 Harman Becker Automotive Systems Gmbh Verfahren zur Spracherkennung und Spracherkennungssystem
JP3892338B2 (ja) * 2002-05-08 2007-03-14 松下電器産業株式会社 単語辞書登録装置および単語登録用プログラム
AU2003273357A1 (en) 2003-02-21 2004-09-17 Harman Becker Automotive Systems Gmbh Speech recognition system
US20040260681A1 (en) 2003-06-19 2004-12-23 Dvorak Joseph L. Method and system for selectively retrieving text strings
US7529657B2 (en) * 2004-09-24 2009-05-05 Microsoft Corporation Configurable parameters for grammar authoring for speech recognition and natural language understanding
EP1734509A1 (en) 2005-06-17 2006-12-20 Harman Becker Automotive Systems GmbH Method and system for speech recognition
US7277029B2 (en) * 2005-06-23 2007-10-02 Microsoft Corporation Using language models to expand wildcards
JP2007280104A (ja) * 2006-04-07 2007-10-25 Pioneer Electronic Corp 情報処理装置、情報処理方法、情報処理プログラムおよびコンピュータに読み取り可能な記録媒体
EP2081185B1 (en) 2008-01-16 2014-11-26 Nuance Communications, Inc. Speech recognition on large lists using fragments

Also Published As

Publication number Publication date
KR20090079169A (ko) 2009-07-21
EP2081185A1 (en) 2009-07-22
CA2650141C (en) 2014-04-15
CN101515457B (zh) 2013-01-02
CN101515457A (zh) 2009-08-26
CA2650141A1 (en) 2009-07-16
US8731927B2 (en) 2014-05-20
JP2009169418A (ja) 2009-07-30
US20090210230A1 (en) 2009-08-20
US8401854B2 (en) 2013-03-19
US20130231934A1 (en) 2013-09-05
EP2081185B1 (en) 2014-11-26

Similar Documents

Publication Publication Date Title
JP5517458B2 (ja) フラグメントを使用した大規模なリストにおける音声認識
US7869999B2 (en) Systems and methods for selecting from multiple phonectic transcriptions for text-to-speech synthesis
US9697827B1 (en) Error reduction in speech processing
US10319373B2 (en) Information processing device, information processing method, computer program product, and recognition system
EP1693828B1 (en) Multilingual speech recognition
JP5533042B2 (ja) 音声検索装置、音声検索方法、プログラム及び記録媒体
US20100305947A1 (en) Speech Recognition Method for Selecting a Combination of List Elements via a Speech Input
JP6580882B2 (ja) 音声認識結果出力装置、音声認識結果出力方法及び音声認識結果出力プログラム
WO2009044931A1 (en) Automatic speech recognition method and apparatus
CN108074562B (zh) 语音识别装置、语音识别方法以及存储介质
EP1933302A1 (en) Speech recognition method
JP5753769B2 (ja) 音声データ検索システムおよびそのためのプログラム
JP2012113087A (ja) 音声認識用wfst作成装置とそれを用いた音声認識装置と、それらの方法とプログラムと記憶媒体
JP5004863B2 (ja) 音声検索装置および音声検索方法
JP4528540B2 (ja) 音声認識方法及び装置及び音声認識プログラム及び音声認識プログラムを格納した記憶媒体
JP2011154061A (ja) 辞書作成装置、そのコンピュータプログラムおよびデータ処理方法
JP2001312293A (ja) 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体
JP2004294542A (ja) 音声認識装置及びそのプログラム
JP3926716B2 (ja) 音響モデル学習方法、その装置及び音響モデル学習プログラム、その記録媒体
JP5155836B2 (ja) 収録テキスト生成装置、その方法、そのプログラム
JP2004272134A (ja) 音声認識装置及びコンピュータプログラム
JP3841342B2 (ja) 音声認識装置および音声認識プログラム
EP1638080B1 (en) A text-to-speech system and method
JP2003256458A (ja) データベース検索装置
Li et al. scriptions (3, 4]. These estimates of phone

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110819

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140401

R150 Certificate of patent or registration of utility model

Ref document number: 5517458

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees