JP2002520664A - 言語に依存しない音声認識 - Google Patents
言語に依存しない音声認識Info
- Publication number
- JP2002520664A JP2002520664A JP2000559559A JP2000559559A JP2002520664A JP 2002520664 A JP2002520664 A JP 2002520664A JP 2000559559 A JP2000559559 A JP 2000559559A JP 2000559559 A JP2000559559 A JP 2000559559A JP 2002520664 A JP2002520664 A JP 2002520664A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- language
- languages
- words
- vocabulary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000013598 vector Substances 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 description 13
- 230000001419 dependent effect Effects 0.000 description 7
- 238000013139 quantization Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000005056 compaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
Abstract
Description
一つの言語が認識される必要があるならば、音響モデルは交換されなければなら
ない。大抵の音声認識システムのために、記録されたスピーチの大きい集まりか
ら統計上の情報を抽出することによって、これらのモデルが構築されるか、ある
いは、トレーニングされる。所定の言語において音声認識を提供するために、あ
る言語のすべての音を表す音素として知られるシンボルのセットを典型的に定義
する。いくらかのシステムは、所定の言語の基準音を表すために、「音素的ユニ
ット」としてより一般的に知られる他の部分語(サブワード)のユニットを用い
る。これらの音素的ユニットは、隠れマルコフモデル(HMMs)及び当該技術
において周知である他の音声モデルによって設計されるバイフォン(biphone)
とトライフォン(triphone)を含む。
能にするために記録される。通常、多くのネイティブスピーカー(母国語話者)
、すなわち、言語を母国語とする人は、多くの発話を記録することを必要とされ
る。一セットの録音は、スピーチデータベースとして言及される。サポートされ
るべきすべての言語のためのそのようなスピーチデータベースの録音は、非常に
高価であり、時間の浪費でもある。
を要求するのでなければ、音声認識システムに関連する用語「言語に依存しない
(language independent)」は、音声認識システムにおいて設計される複数の言
語に独立して存在する認識能力を意味する。) 本発明の好ましい実施の形態では、スピーチプリプロセッサ、音響モデルのデ
ータベース、言語モデル、及びスピーチレコグナイザー(認識器)を備える、言
語に依存しない音声認識システムが提供される。スピーチプリプロセッサは、入
力スピーチを受信し、入力スピーチを表すスピーチ関連信号を生成する。音響モ
デルのデータベースは、複数の言語のそれぞれで各サブワードユニットを表す。
言語モデルは、認識可能な単語の語彙及び一セットの文法規則の特性を表し、ス
ピーチ認識器は、スピーチ関連信号と音響モデル及び言語モデルとを比較し、入
力スピーチを少なくとも一単語の特定の単語シーケンスとして認識する。
号を生成するために、適切なスピーチパラメーターを抽出する特徴抽出器を備え
る。特徴抽出機は、スピーチデータを用いて複数の言語から作られたコードブッ
クを含み、スピーチ関連が一連の特徴ベクトルであるようなベクトル量子化を用
いてもよい。
いて複数の言語から音響モデルを作ってもよい。サブワードユニットは、少なく
とも一つの音素、音素の一部、及び音素のシーケンスであってもよい。認識可能
な単語の語彙は、固有名詞、複数の言語に存在しない言語内の単語、又は、外来
の単語を含む複数の言語における単語を含んでもよい。それに加えて、認識可能
な単語の語彙における単語は、データベースから音響モデルのユーザーによって
調整されたシーケンスで構成された声紋によって記述されてもよい。そのような
一実施の形態は、スピーチ入力の話者の同一性を決定するために声紋を用いる話
者識別器(speaker identifier)をさらに含んでもよい。
ーターと、複数の言語中の第1の言語のサブワードユニットを表す音響モデルと
を比較し、それから、ネイティブスピーカーでない人からの入力スピーチが認識
され得るように、複数の言語中の第2の言語の少なくとも1つの単語の特定の単
語シーケンスとしてスピーチ入力を認識してもよい。
された言語に依存しない音声認識システムの一実施の形態に関連して操作するユ
ーザーに外国語を教えるためのコンピュータープログラムでコード化されたコン
ピューターで読取り可能なデジタル記憶媒体を含む。
しない音声認識システムの方法を含む。
ーチ信号10は、プリプロセッサ11に送られ、そこでは、適切なパラメーター
がスピーチ信号10から抽出される。パターンマッチング認識器12は、音響モ
デル13と言語モデル14に基づいて、最も良い単語シーケンス認識結果15を
見付け出すよう試みる。言語モデル14は、単語と、その単語が文を形成するた
めにどのように接続するかを記述する。それは、孤立された単語認識器の場合に
は単語のリストと同様にシンプルであり、また、大語彙の連続音声認識のための
統計的な言語モデルと同様に複雑であってもよい。音響モデル13は、プリプロ
セッサ11からのスピーチパラメーターと認識されるべき認識シンボルとの間の
リンクを確立する。中及び大語彙システムでは、認識シンボルは、音素、又は単
語を形成するために結び付けられる音素的ユニットである。音声認識システムの
設計におけるさらなる情報は、例えば、ラビナー(Rabiner)とジュアング(Jua
ng)による、1993年プリエンティスホール「音声認識の基礎」(以下、「ラ
ビナーとジュアング」という。)で提供される。
めに、言語1−特定記録スピーチデータ20は、その言語において各音素21を
表す音響モデル22を生成するために用いられる。他の所定の言語2の場合には
、言語2−特定記録スピーチデータ25は、その言語2における各音素23を表
すその言語特有の他の音響モデル24を生成するために用いられる。
スピーチデータを記録し、別々にすべての言語のための音響モデルを構築する代
わりに、上述のように、世界すべての言語、あるいは、ヨーロッパ又は東洋の言
語のような大グループの言語、あるいは任意の複数の言語をサポートするのに、
音響モデルの唯一の全体集合が用いられる。これを達成するために、統計的な情
報が音響モデルを創り出すために検索されるスピーチデータベースは、いくつか
の言語のスピーチ33を含み、すべての可能な音素又はこれらの言語における音
素的ユニットをカバーする。したがって、特定の音素の音響モデルは、多言語か
らのスピーチに基づいて組み立てられる。それゆえ、すべての望ましい言語をカ
バーする全音素のリスト31は、対応する音響モデル32とともに、音声認識シ
ステムに含まれる。各音素31が単音のユニークな表現であるので、いくつかの
言語に現れる音は、同じ音素によって表され、同じ対応する音響モデル32を持
つ。音素の代わりに、別の実施の形態は、隠れマルコフモデル(HMMs)等に基づ
くバイフォンとトライフォンのような、音素的なサブワードユニットを用いても
よい。もう一つの実施の形態では、図1の言語モデル14は省略され、認識器1
2によるパターンマッチングは、プリプロセッサ11からのスピーチパラメータ
ーと音響モデル13との比較のみに基づいてもよい。
スの連続認識エンジンに基づいており、図4に示される。これらの認識エンジン
は、電話スピーチ、マイクロフォンスピーチ、又は他の有利な応用のために有用
である。入力スピーチ信号は、最初にある形態の前処理を受ける。図4に示され
るように、好ましい実施の一形態は、入力スピーチ信号を処理し、10ミリ秒毎
に一度30ミリ秒のスピーチセグメントのために、エネルギーとスペクトルのプ
ロパティ(ケプストラム)を計算する、ベクトル量子化特性抽出モジュール41
を用いる。電話音声認識エンジンの好ましい実施の形態は、第1及び第2オーダ
ーの派生語とともに、12ケプストラム係数とログエネルギーを導出するために
、一般に周知のLPC解析法を用いる。マイクロフォン音声認識エンジンの好ま
しい実施の形態は、同一の目的を達成するために、一般に周知のMEL−FFT
法を用いる。各スピーチフレームのための両エンジンの結果は、12ケプストラ
、12デルタケプストラ、12デルタデルタケプストラ、デルタログエネルギー
、及びデルタデルタログエネルギーのベクトルである。これらのスピーチ前処理
技術は、当該技術では周知である。この主題の追加の議論のために、例えば、ラ
ビナーとジュアングの「スープラ(supra)」112〜117、188〜190
頁を見よ。その処理の残りの部分は、両エンジンとも同じである。
クトルに最もよくマッチするコードブック43からの原型(又はコード語)がそ
れぞれの観察された特性ベクトルに取って替わるベクトル量子化特性抽出モジュ
ール41を使用する。コードブック43は、コードブック43の全ひずみを最小
にする一般に用いられるk手段密集方法のような、いくらかの費用関数を最小に
するアルゴリズム46とともに、複数の言語のそれぞれから記録されたスピーチ
データ45を含む大きいスピーチデータベース44を用いて設計され、作り出さ
れる。先行技術における単言語システムコードブックは、目的言語のみからのス
ピーチデータを用いて設計され、作り出される。他方、本発明の好ましい実施の
形態は、すべての言語からのデータが同等量あるように、大多数の言語からのス
ピーチを用い、スピーチデータを選択する多言語モデルに基づいている。そのよ
うな実施の形態では、ケプストラのための一つ、デルタケプストラのための一つ
、デルタデルタケプストラのための一つ、及びデルタログエネルギーとデルタデ
ルタログエネルギーのための一つから、4つのコードブック43が組み立てられ
てもよい。各コードブック43は、設計アルゴリズムを用いる:
トル量子化技術に基礎を置くコードブックを用いるように記述されたが、本発明
の他の実施の形態では、例えば、連続密度に基づく音声認識システムで用いられ
るように、最初のスピーチ処理の他の方法を使用してもよい。
図4において48のスピーチ認識器は、スピーチ信号と、言語モデル49及び音
素データベース47における音響モデルとを比較する。どれか一つの特定の言語
の音素(または他のサブワードユニット)のための音響モデルを作る代わりに、
好ましい実施の形態は、多数の言語に現れるすべての音素のための音響モデルを
用いる。そのようなすべての言語に依存しない音素のリストは、様々な望ましい
言語のそれぞれから特定の音素リストを併合することによって組み立てられる。
好ましい実施の形態は、L&H+、即ち、単一のシンボルによって各音を表すす
べての言語をカバーするために設計された音声アルファベットを用いる。そこで
は、各シンボルは、単一の音を表す。テーブル1は、イギリス英語、オランダ語
、アメリカ英語、フランス語、ドイツ語、イタリア語、スペイン語、及び日本語
にマイクロフォンモデルを向けるために用いられる多言語音素リストを示す。各
音素のために、そのテーブルは、それがどの言語に現れるかを示す。例えば、音
素Aは、イギリス英語、オランダ語、アメリカ英語、フランス語、及び日本語の
スピーチに向けられる。
ーニング技術を用いる。それらは、渡されるデータのタイプとトレーニングされ
るスピーチユニットにおいて異なる。トレーニングは、特定の音素セットをカバ
ーする音響モデル47のデータベースの構築として見られ得る。トレーニング処
理は、離散密度HMMのViterbiトレーニングを用いる文脈に依存しない
モデルをトレーニングすることによって始まる。それから、音素モデルは、14
クラスに自動的に分類される。クラス情報に基づいて、文脈依存の音素モデルが
組み立てられる。次に、文脈依存のモデルは、離散密度HMMのViterbi
トレーニングを用いてトレーニングされる。文脈依存及び文脈に依存しない音素
モデルは併合され、最後に、劣悪にトレーニングされた文脈依存のモデルは、文
脈に依存しないモデルより円滑にされる。そのような音響モデルトレーニング方
法は、音声認識の技術においては周知である。これに類似のトレーニング技術は
、連続密度に基づく音声認識システムベースのような、他の実施の形態で使用さ
れてもよい。
ングされる。したがって、所定の音素の音響モデルは、単一言語からのスピーチ
サンプルのみに基づいてトレーニングされる。音声認識器エンジンは、その言語
の単語のみを認識し得る。いくつかの言語のための別々の音響モデルライブラリ
ーが構成されてもよいが、それらは、容易に結合され得ない。離散密度音声認識
システムベースにおいて、言語がちがうとコードブックが相容れないので、それ
らを一つのデータベースにまとめることさえ可能ではない。他方、好ましい実施
の形態における多言語音響モデルは、多言語から記録されたスピーチデータ45
を含むスピーチデータベース44に向けられる。トレーニングの結果、言語に依
存しない音素の全リストに対応する離散密度HMM音響モデル47のデータベー
スが与えられる。音素モデルには、それが一つの言語でのみ観察されるので、特
定の言語にのみ用いられるものもある。他の音素モデルは、一つより多い言語か
らのスピーチに向けられる。
で、認識し得る単語の発音を表すことによって、その語彙の単語を表現する。単
一言語音響モデルデータベースの場合には、これは、一言語の単語だけが記述さ
れ得ることを意味する。また、外国の単語の場合は、その特定の言語のスピーチ
ユニットでそれらを記述することによって単語をシミュレートすることを意味す
る。好ましい実施の形態では、多言語音響モデルデータベース47は、目標とさ
れる複数の言語のいずれかの単語を記述し得る音素モデルを含む。単一言語か又
は多言語のいずれの実施においても、単語は、自動的にあるいはユーザーとの対
話によって音声認識システムの語彙に加えられてもよい。しかしながら、自動的
かあるいは対話式かに関わらず、多言語認識器の好ましい実施の形態は、認識器
が知っているいくつかの言語の単語を含み得る語彙、即ち、単語のリストを用い
る。従って、異なる言語の単語を認識することは可能である。単語追加のための
詳細な手順は、単一言語と多言語音声認識システムで結果的に異なる。
「L&H」)をタイプすることによってそれを入力して始まる。新しい単語は、
自動的なテキストから音声への変換モジュールに導く、規則に基づくシステムに
よって、あるいは、辞書検索によって、音素表現に自動的に変換される。ユーザ
ーは、ちょうど生成された音訳を読み上げるテキスト音声変換システム(例えば
、そのシステムは「ルーノウトアンドオスピープロダクツ(Lernout and Hauspi
e Speech Products)」という)の出力を聞くことによって、音訳をチェックし
得る。もし、ユーザーがその発音に満足しないならば、彼は、2つの方法(例え
ば、ユーザーが「エルとエイチ(el and eitch)」を好むだろう)で音訳を変更
し得る。直接音訳を編集することによって、ユーザーは、テキストから音声への
システムで変えられた音声ストリングを再生させることによって、なされた変更
を聞き得る。また、ユーザーは、彼が実際に別のつづりの分野で欲するもののよ
うに響く単語(例えば、「L. and H.」)を入力してもよく、システムは、音の
ようなアイテムを音素に変換し、「リアルな」音のための音訳としてこれを用い
る。ユーザーが新しい単語の発音に満足すると、彼は、それを受け入れ得、音訳
ユニットがモデルデータベースから検索され、その単語が認識器に加えられ、認
識され得るに至る。
るための手順が幾らか異なる。第一に、前と同様に、ユーザーは、それをタイプ
することによって新しい単語を入力する。システムは、辞書検索及び/又は規則
に基づくシステムを介して、単語の言語を自動的に決定し、ユーザーに1以上の
選択対象の種類を示す。選ばれた言語のそれぞれについて、その単語は、その特
定の言語の自動的なテキストから音声への変換モジュールから得られた規則に基
づくシステムによって音声表現に自動的に変換される。ユーザーは、ちょうど生
成される音訳を読み出すテキスト−音声システムの出力を聞くことによって、音
訳をチェックし得る。もし、システムがなした言語選択にユーザーが満足しない
ならば、彼は、システムを無効にして、1以上の言語を直接指摘し得る。もし、
ユーザーが発音に満足しないならば、彼は、選択された言語のそれぞれについて
、2つの方法で音訳を変更し得る。ユーザーは、直接音訳を編集してもよい。彼
は、テキスト−音声システムで、変えられた音声ストリングを再生することによ
って、なされた変更を聞き得る。このようにして、ユーザーは、もう一つの言語
から来る音素記号を使用し得るが、変更を聞くことが必ずしも可能ではない。そ
の代わりに、ユーザーは、別のつづりの分野で彼が実際に欲するもののように響
く単語を入力してもよい。システムは、音のようなアイテムを音素に変換し、こ
れを「リアルな」単語のための音訳として用いる。ユーザーが単語の音訳に満足
すると、彼はそれを受け入れ得る。音訳ユニットは、モデルデータベースから検
索され、単語は認識器に追加され、認識され得るに至る。
ム間で異なる。単一言語システムでは、アプリケーションプログラムは、音声認
識システムに認識させたい単語を与え、その単語は、自動的なテキストから音声
への変換モジュールから与えられる規則に基づくシステムによって、あるいは、
辞書検索によって、音声表現に自動的に変換される。音訳ユニットは、モジュー
ルデータベースから検索され、その単語は、認識器に追加され、認識され得るに
至る。しかしながら、好ましい実施の形態の多言語システムでは、アプリケーシ
ョンプログラムは、音声認識システムに認識させたい単語を与え、その単語につ
いて1以上の言語を随意に示す。もし、言語が示されないならば、システムは、
辞書検索によって、あるいは、規則に基づくシステムを介して、自動的に言語を
決定し、1以上の言語選択を与える。各言語のために、単語は、自動的なテキス
トから音声への変換モジュールで得られる規則に基づくシステムによって、音声
表現に自動的に変換される。音訳ユニットは、モデルデータベースから検索され
、単語は、認識器に加えられ、認識され得るに至る。
のようなシステムでは、1以上の単語は、上記で説明された手順に従って単一言
語のための認識器に加えられる。自動翻訳システムは、認識器によってサポート
される1以上の他の言語に単語を翻訳する。各単語について、システムは、1以
上の候補を提案し得る。自動的に翻訳された単語は、認識器に加えられ、あるい
は、対話式に編集されてもよい。
言語のために生成する音響モデルが大量のスピーチデータの記録を必要とするの
で、新しい言語のための音声認識器の開発は、コストがかかり、時間も消費する
。多言語認識器のモデルデータベースは、単一言語モデルよりも多くの音素をサ
ポートする。このデータベースにサポートされていない音素を見出す可能性は低
いので、トレーニングデータに存在しなかった言語の単語を記述することが可能
になる。この記述は、単一の異なる言語の音素における単語の記述よりもずっと
正確である。新しい言語の単語を認識するために、好ましい実施の形態は、新し
い単語とそれらの音声表現の入力だけを必要とする。トレーニングの必要はない
。
ーチを認識するのにてこずる。それには2つの主な理由がある。1)ネイティブ
でない話者は、時々単語を正確に発音しない、2)ネイティブでない話者は、時
々、いくつかの音を正確に発音しない、である。好ましい実施の形態におけるよ
うな多言語モデルは、ネイティブでない話者のスピーチをより効果的に認識する
。なぜならば、各音素のためのモデルは、いくつかの言語でトレーニングされ、
アクセントによる変化により強い。それに加えて、単語の語彙を作るとき、ユー
ザーは、音訳を容易に編集でき、外国語の影響を記述するために、異なる言語の
音素を用いることが可能である。
による特定の単語のわずかな発話に基づいて、その単語の最大限可能な音訳を見
出そうと試みる。ほとんどの場合、ユーザーのネイティブ言語は、知られない。
単一言語モデルが用いられるとき、音声認識システムは、たとえ、スピーチが完
全に異なる言語からであっても、スピーチを言語の特定のシンボルにマッピング
するのに制限される。ネイティブでない話者は、単一言語モデルのモデルデータ
ベースによってうまく表され得ない音を作り出すかもしれない。本発明の好まし
い実施の形態は、音素モデルデータベースがずっと広い音の範囲をカバーするの
で、このタイプの問題を避ける。単語は、ユーザーに数回単語を発音させること
によって、認識器に加えられ得る。システムは、音素モデルデータベースと口に
出されるスピーチに基づいて、単語を記述するために、最大限可能な音素若しく
はモデルユニットシーケンスを自動的に構築するだろう。このシーケンスは、声
紋として言及される。これらの声紋は、話者によるトレーニングされた単語の発
話を認識するために用いられ得る。声紋が他の話者のスピーチより目標とされる
話者のスピーチによりよくマッチするので、それは、また、話者の識別を確認又
は検出するために、用いられ得る。これは、話者照合あるいは話者識別として言
及される。
認識のために、有利に用いられる。いくつかの単語の発音は、話者の母国語に強
く依存する。これは、ユーザーの母国語が異なるか不明である場合のシステムで
は問題である。典型的な例は、固有名詞の認識である。オランダの名前は、オラ
ンダ人の話者とフランス人の話者によって異なって発音される。言語に依存する
システムは、通常、母国語の音素にマッピングすることによって外国人の発音変
形を記述する。上述のように、好ましい実施の形態の音声認識システムに単語を
加え、それが複数の言語で話されることを示すのは可能である。システムは、い
くつかの言語から規則セットで単語を翻訳して、いくつかの音訳を生成する。認
識器は、並列してすべての音訳を用いるので、すべての発音変形をカバーする。
これは、言語が知られない様々な話者によって用いられるアプリケーションにお
いて、固有名詞を認識するために特に有用である。
話すために学ぶことを助けるコンピュータープログラムである。自動音声認識シ
ステムは、しばしば、ユーザーの進歩を自らテストするのを助け、ユーザーが学
ばれるべき言語の発音を向上するのを助けるために、そのようなプログラムにお
いて用いられる。認識器の信頼レベル、即ち、モデルが発せられたスピーチにど
れくらいうまくマッチするかの示度は、ユーザーがそのモデルによって表される
単語又は分節をどれくらいうまく発音したかの示度である。モデルが発せられた
スピーチ、文節中の単語、あるいは発話中の音素の小さい部分にどれくらいうま
くマッチするかの測定である、局所の信頼は、ユーザーがどのようなタイプの間
違いをしたかの示度を与え得、ユーザーが取り組むべき特定の問題領域を示すた
めに用いられ得る。多言語モデルは、単一言語モデルより言語学習応用のために
より適する。母国語として言語1を持ち、言語2を学びたいユーザーは、言語対
(言語1、言語2)の典型的な間違いを犯すであろう。言語2にあるいくつかの
音素は、言語1には存在せず、そのため、母国語として言語1を持つ人々にとっ
て知られていない。彼らは、典型的に、言語1にある音素で知らない音素を置き
換え、それにより単語を間違って発音する。典型的な例は、フランス人がフラン
ス語の方法で英語のテキストの英単語を発音することである。なぜならば、同じ
単語が、フランス語にも存在するからである。このタイプの間違いは、各言語対
(言語1、言語2)における典型である。言語1あるいは言語2で特定される、
単一言語認識システムは、このような代用を検出できない。なぜならば、特定の
音素結合を記述するモデルが、利用可能でないからである。多言語モデルは、言
語1と言語2のすべての音素がカバーされるので、このタイプの間違いを検出す
るために用いられ得る。したがって、言語対に典型的な間違いを記述し、自動音
声認識システムの助けで特定の間違いを自動的に検出する規則で拡張される言語
対のための言語学習システムを作り出すことが可能になる。
、より容易に理解されるだろう。
を図示する。
Claims (26)
- 【請求項1】 言語に依存しない音声認識システムであって、 a. 入力スピーチを受信し、該入力スピーチに関連するスピーチ関連信号を
生成するスピーチプリプロセッサと、 b. 複数の言語のそれぞれの各サブワードを表す音響モデルのデータベース
と、 c. 認識可能な単語の語彙と一セットの文法規則の特徴を表す言語モデルと
、 d. 前記スピーチ関連信号を前記音響モデル及び前記言語モデルと比較し、
少なくとも一つの単語の特定の単語シーケンスとして前記入力スピーチを認識す
る音声認識器と、 を備えることを特徴とするシステム。 - 【請求項2】 前記スピーチプリプロセッサは、前記スピーチ関連信号を生
成するために、適切なスピーチパラメーターを抽出する特徴抽出器を備えること
を特徴とする請求項1記載のシステム。 - 【請求項3】 前記特徴抽出器は、前記複数の言語からスピーチデータを用
いて作り出されるコードブックを含み、前記スピーチ関連信号が一連の特徴ベク
トルであるように、該特徴抽出器がベクトル量子化を用いることを特徴とする請
求項2記載のシステム。 - 【請求項4】 前記音響モデルは、前記複数の言語からスピーチデータを用
いて作り出されることを特徴とする請求項1記載のシステム。 - 【請求項5】 前記サブワードユニットは、音素、音素の一部、及び音素の
シーケンスの少なくとも一つであることを特徴とする請求項1記載のシステム。 - 【請求項6】 前記認識可能な単語の語彙は、前記複数の言語の単語を含む
ことを特徴とする請求項1記載のシステム。 - 【請求項7】 前記認識可能な単語の語彙は、外来の単語を含むことを特徴
とする請求項1記載のシステム。 - 【請求項8】 前記認識可能な単語の語彙は、前記複数の言語の固有名詞を
含むことを特徴とする請求項1記載のシステム。 - 【請求項9】 前記認識可能な語彙内の単語は、前記データベースから音響
モデルのユーザーによって調整されたシーケンスで構成された声紋によって記述
されることを特徴とする請求項1記載のシステム。 - 【請求項10】 e. スピーチ入力の話者の同一性を決定するために前記
声紋を用いる話者識別器、 をさらに備えることを特徴とする請求項9記載のシステム。 - 【請求項11】 前記認識可能な単語の語彙は、前記複数の言語に存在しな
い一の言語の単語を含むことを特徴とする請求項1記載のシステム。 - 【請求項12】 前記音声認識器は、前記複数の言語内の第1の言語のサブ
ワードユニットを表す音響モデルと前記適切なスピーチパラメーターを比較し、
ネイティブスピーカーでない人からの入力スピーチが認識されるように、前記複
数の言語内の第2の言語の少なくとも一つの単語の特定の単語シーケンスとして
スピーチ入力を認識することを特徴とする請求項1記載のシステム。 - 【請求項13】 ユーザーに外国語を教えるためのコンピュータープログラ
ムで符号化されたコンピューターが読取り可能なデジタル記憶媒体であって、 コンピューターにロードされるとき、請求項1記載の言語に依存しない音声認
識システムに関連して作動することを特徴とする記憶媒体。 - 【請求項14】 言語に依存しない音声認識方法であって、 a. スピーチプリプロセッサで入力スピーチを受信し、該入力スピーチを表
すスピーチ関連信号を生成するステップと、 b. 音響モデルのデータベースにおいて、複数の言語のそれぞれの各サブワ
ードユニットを表すステップと、 c. 言語モデルにおいて、認識可能な単語の語彙と一セットの文法規則を特
徴付けるステップと、 d. 音声認識器において、前記スピーチ関連信号を前記音響モデル及び前記
言語モデルと比較し、少なくとも一つの単語の特定の単語シーケンスとして前記
入力スピーチを認識するステップと、 を有することを特徴とする方法。 - 【請求項15】 前記受信するステップは、適切なスピーチパラメーターを
抽出し、前記スピーチ関連信号を生成するための特徴抽出器をさらに備えるスピ
ーチプリプロセッサを用いることを特徴とする請求項14記載の方法。 - 【請求項16】 前記特徴抽出器は、前記複数の言語からスピーチデータを
用いて作り出されるコードブックを含み、前記スピーチ関連信号が一連の特徴ベ
クトルであるように、該特徴抽出器がベクトル量子化を用いることを特徴とする
請求項15記載の方法。 - 【請求項17】 前記音響モデルは、前記複数の言語からスピーチデータを
用いて作り出されることを特徴とする請求項14記載の方法。 - 【請求項18】 前記サブワードユニットは、音素、音素の一部、及び音素
のシーケンスの少なくとも一つであることを特徴とする請求項14記載の方法。 - 【請求項19】 前記認識可能な単語の語彙は、前記複数の言語の単語を含
むことを特徴とする請求項14記載の方法。 - 【請求項20】 前記認識可能な単語の語彙は、外来の単語を含むことを特
徴とする請求項14記載の方法。 - 【請求項21】 前記認識可能な単語の語彙は、前記複数の言語の固有名詞
を含むことを特徴とする請求項14記載の方法。 - 【請求項22】 前記認識可能な語彙内の単語は、前記データベースから音
響モデルのユーザーによって調整されたシーケンスで構成された声紋によって記
述されることを特徴とする請求項14記載の方法。 - 【請求項23】 e. 前記声紋を用いる話者識別器で、スピーチ入力の話
者の同一性を決定するステップ、 をさらに有することを特徴とする請求項22記載の方法。 - 【請求項24】 前記認識可能な単語の語彙は、前記複数の言語に存在しな
い一の言語の単語を含むことを特徴とする請求項14記載の方法。 - 【請求項25】 前記音声認識器は、前記複数の言語内の第1の言語のサブ
ワードユニットを表す音響モデルと前記適切なスピーチパラメーターを比較し、
ネイティブスピーカーでない人からの入力スピーチが認識されるように、前記複
数の言語内の第2の言語の少なくとも一つの単語の特定の単語シーケンスとして
スピーチ入力を認識することを特徴とする請求項14記載の方法。 - 【請求項26】 ユーザーに外国語を教えるためのコンピュータープログラ
ムで符号化されたコンピューターが読取り可能なデジタル記憶媒体であって、 コンピューターにロードされるとき、請求項14記載の言語に依存しない音声
認識方法に関連して作動することを特徴とする記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/113,589 US6085160A (en) | 1998-07-10 | 1998-07-10 | Language independent speech recognition |
US09/113,589 | 1998-07-10 | ||
PCT/IB1999/001406 WO2000003386A1 (en) | 1998-07-10 | 1999-07-08 | Language independent speech recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002520664A true JP2002520664A (ja) | 2002-07-09 |
Family
ID=22350342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000559559A Pending JP2002520664A (ja) | 1998-07-10 | 1999-07-08 | 言語に依存しない音声認識 |
Country Status (4)
Country | Link |
---|---|
US (1) | US6085160A (ja) |
EP (1) | EP1095371A1 (ja) |
JP (1) | JP2002520664A (ja) |
WO (1) | WO2000003386A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008513825A (ja) * | 2004-09-23 | 2008-05-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 話者に依存しない堅牢な音声認識システム |
JP2012103554A (ja) * | 2010-11-11 | 2012-05-31 | Advanced Telecommunication Research Institute International | 音声言語識別装置の学習装置、音声言語の識別装置、及びそれらのためのプログラム |
JP2012177815A (ja) * | 2011-02-28 | 2012-09-13 | National Institute Of Information & Communication Technology | 音響モデル学習装置、および音響モデル学習方法 |
JP2017513047A (ja) * | 2014-03-04 | 2017-05-25 | アマゾン テクノロジーズ インコーポレイテッド | 音声認識における発音予測 |
Families Citing this family (117)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7043426B2 (en) | 1998-04-01 | 2006-05-09 | Cyberpulse, L.L.C. | Structured speech recognition |
US6757647B1 (en) * | 1998-07-30 | 2004-06-29 | International Business Machines Corporation | Method for encoding regular expressions in a lexigon |
DE19929462A1 (de) * | 1999-06-26 | 2001-02-22 | Philips Corp Intellectual Pty | Verfahren zum Training eines automatischen Spracherkenners |
US6912499B1 (en) * | 1999-08-31 | 2005-06-28 | Nortel Networks Limited | Method and apparatus for training a multilingual speech model set |
IT1310154B1 (it) * | 1999-09-02 | 2002-02-11 | Cselt Centro Studi Lab Telecom | Procedimento per realizzare un riconoscitore vocale, relativoriconoscitore e procedimento per il riconoscimento della voce |
EP1222655A1 (en) * | 1999-10-19 | 2002-07-17 | Sony Electronics Inc. | Natural language interface control system |
US7308462B1 (en) | 1999-10-29 | 2007-12-11 | Nortel Networks Limited | Methods and systems for building and distributing audio packages |
US7376710B1 (en) * | 1999-10-29 | 2008-05-20 | Nortel Networks Limited | Methods and systems for providing access to stored audio data over a network |
US7725307B2 (en) * | 1999-11-12 | 2010-05-25 | Phoenix Solutions, Inc. | Query engine for processing voice based queries including semantic decoding |
US9076448B2 (en) | 1999-11-12 | 2015-07-07 | Nuance Communications, Inc. | Distributed real time speech recognition system |
US7050977B1 (en) | 1999-11-12 | 2006-05-23 | Phoenix Solutions, Inc. | Speech-enabled server for internet website and method |
US7392185B2 (en) | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
JP3520022B2 (ja) * | 2000-01-14 | 2004-04-19 | 株式会社国際電気通信基礎技術研究所 | 外国語学習装置、外国語学習方法および媒体 |
US6738745B1 (en) * | 2000-04-07 | 2004-05-18 | International Business Machines Corporation | Methods and apparatus for identifying a non-target language in a speech recognition system |
US8355912B1 (en) * | 2000-05-04 | 2013-01-15 | International Business Machines Corporation | Technique for providing continuous speech recognition as an alternate input device to limited processing power devices |
KR100387918B1 (ko) * | 2000-07-11 | 2003-06-18 | 이수성 | 통역기 |
US7295979B2 (en) * | 2000-09-29 | 2007-11-13 | International Business Machines Corporation | Language context dependent data labeling |
EP1217610A1 (de) * | 2000-11-28 | 2002-06-26 | Siemens Aktiengesellschaft | Verfahren und System zur multilingualen Spracherkennung |
EP1233406A1 (en) * | 2001-02-14 | 2002-08-21 | Sony International (Europe) GmbH | Speech recognition adapted for non-native speakers |
US7043431B2 (en) * | 2001-08-31 | 2006-05-09 | Nokia Corporation | Multilingual speech recognition system using text derived recognition models |
GB2388738B (en) * | 2001-11-03 | 2004-06-02 | Dremedia Ltd | Time ordered indexing of audio data |
US20060069567A1 (en) * | 2001-12-10 | 2006-03-30 | Tischer Steven N | Methods, systems, and products for translating text to speech |
US7483832B2 (en) * | 2001-12-10 | 2009-01-27 | At&T Intellectual Property I, L.P. | Method and system for customizing voice translation of text to speech |
US20050154588A1 (en) * | 2001-12-12 | 2005-07-14 | Janas John J.Iii | Speech recognition and control in a process support system |
US7013275B2 (en) * | 2001-12-28 | 2006-03-14 | Sri International | Method and apparatus for providing a dynamic speech-driven control and remote service access system |
DE50307074D1 (de) * | 2002-01-17 | 2007-05-31 | Siemens Ag | Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner |
US7016849B2 (en) * | 2002-03-25 | 2006-03-21 | Sri International | Method and apparatus for providing speech-driven routing between spoken language applications |
DE10220522B4 (de) * | 2002-05-08 | 2005-11-17 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse |
EP1361740A1 (de) * | 2002-05-08 | 2003-11-12 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachinformationen eines Dialogs |
DE10220521B4 (de) * | 2002-05-08 | 2005-11-24 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen |
DE10220524B4 (de) * | 2002-05-08 | 2006-08-10 | Sap Ag | Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache |
DE10220520A1 (de) * | 2002-05-08 | 2003-11-20 | Sap Ag | Verfahren zur Erkennung von Sprachinformation |
EP1363271A1 (de) * | 2002-05-08 | 2003-11-19 | Sap Ag | Verfahren und System zur Verarbeitung und Speicherung von Sprachinformationen eines Dialogs |
US7353173B2 (en) * | 2002-07-11 | 2008-04-01 | Sony Corporation | System and method for Mandarin Chinese speech recognition using an optimized phone set |
US7149688B2 (en) * | 2002-11-04 | 2006-12-12 | Speechworks International, Inc. | Multi-lingual speech recognition with cross-language context modeling |
WO2004047077A1 (en) * | 2002-11-15 | 2004-06-03 | Voice Signal Technologies, Inc. | Multilingual speech recognition |
US20040102973A1 (en) * | 2002-11-21 | 2004-05-27 | Lott Christopher B. | Process, apparatus, and system for phonetic dictation and instruction |
DE10256935A1 (de) * | 2002-12-05 | 2004-07-01 | Siemens Ag | Auswahl der Benutzersprache an einem rein akustisch gesteuerten Telefon |
US8285537B2 (en) * | 2003-01-31 | 2012-10-09 | Comverse, Inc. | Recognition of proper nouns using native-language pronunciation |
US7319958B2 (en) * | 2003-02-13 | 2008-01-15 | Motorola, Inc. | Polyphone network method and apparatus |
TWI224771B (en) * | 2003-04-10 | 2004-12-01 | Delta Electronics Inc | Speech recognition device and method using di-phone model to realize the mixed-multi-lingual global phoneme |
US20040221420A1 (en) * | 2003-05-08 | 2004-11-11 | Brian Phillips | Apparatus and method for cleaning soiled, surfaces with reduced environmental impact |
DE10334400A1 (de) * | 2003-07-28 | 2005-02-24 | Siemens Ag | Verfahren zur Spracherkennung und Kommunikationsgerät |
US7502731B2 (en) * | 2003-08-11 | 2009-03-10 | Sony Corporation | System and method for performing speech recognition by utilizing a multi-language dictionary |
US8229744B2 (en) * | 2003-08-26 | 2012-07-24 | Nuance Communications, Inc. | Class detection scheme and time mediated averaging of class dependent models |
US7289958B2 (en) * | 2003-10-07 | 2007-10-30 | Texas Instruments Incorporated | Automatic language independent triphone training using a phonetic table |
US7689404B2 (en) * | 2004-02-24 | 2010-03-30 | Arkady Khasin | Method of multilingual speech recognition by reduction to single-language recognizer engine components |
US7415411B2 (en) * | 2004-03-04 | 2008-08-19 | Telefonaktiebolaget L M Ericsson (Publ) | Method and apparatus for generating acoustic models for speaker independent speech recognition of foreign words uttered by non-native speakers |
US20070294082A1 (en) * | 2004-07-22 | 2007-12-20 | France Telecom | Voice Recognition Method and System Adapted to the Characteristics of Non-Native Speakers |
US8036893B2 (en) | 2004-07-22 | 2011-10-11 | Nuance Communications, Inc. | Method and system for identifying and correcting accent-induced speech recognition difficulties |
US7640159B2 (en) * | 2004-07-22 | 2009-12-29 | Nuance Communications, Inc. | System and method of speech recognition for non-native speakers of a language |
US7406408B1 (en) * | 2004-08-24 | 2008-07-29 | The United States Of America As Represented By The Director, National Security Agency | Method of recognizing phones in speech of any language |
US7430503B1 (en) * | 2004-08-24 | 2008-09-30 | The United States Of America As Represented By The Director, National Security Agency | Method of combining corpora to achieve consistency in phonetic labeling |
US7917361B2 (en) * | 2004-09-17 | 2011-03-29 | Agency For Science, Technology And Research | Spoken language identification system and methods for training and operating same |
US20060122834A1 (en) * | 2004-12-03 | 2006-06-08 | Bennett Ian M | Emotion detection device & method for use in distributed systems |
US7711358B2 (en) * | 2004-12-16 | 2010-05-04 | General Motors Llc | Method and system for modifying nametag files for transfer between vehicles |
US7596370B2 (en) * | 2004-12-16 | 2009-09-29 | General Motors Corporation | Management of nametags in a vehicle communications system |
ATE385024T1 (de) * | 2005-02-21 | 2008-02-15 | Harman Becker Automotive Sys | Multilinguale spracherkennung |
US8265930B1 (en) * | 2005-04-13 | 2012-09-11 | Sprint Communications Company L.P. | System and method for recording voice data and converting voice data to a text file |
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
US20070129945A1 (en) * | 2005-12-06 | 2007-06-07 | Ma Changxue C | Voice quality control for high quality speech reconstruction |
KR100815115B1 (ko) * | 2006-03-31 | 2008-03-20 | 광주과학기술원 | 타 언어권 화자 음성에 대한 음성 인식시스템의 성능향상을 위한 발음 특성에 기반한 음향모델 변환 방법 및이를 이용한 장치 |
US8898052B2 (en) | 2006-05-22 | 2014-11-25 | Facebook, Inc. | Systems and methods for training statistical speech translation systems from speech utilizing a universal speech recognizer |
US7873517B2 (en) * | 2006-11-09 | 2011-01-18 | Volkswagen Of America, Inc. | Motor vehicle with a speech interface |
GB2451907B (en) * | 2007-08-17 | 2010-11-03 | Fluency Voice Technology Ltd | Device for modifying and improving the behaviour of speech recognition systems |
US8244534B2 (en) * | 2007-08-20 | 2012-08-14 | Microsoft Corporation | HMM-based bilingual (Mandarin-English) TTS techniques |
US7472061B1 (en) * | 2008-03-31 | 2008-12-30 | International Business Machines Corporation | Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciations |
EP2107554B1 (en) * | 2008-04-01 | 2011-08-10 | Harman Becker Automotive Systems GmbH | Generation of multilingual codebooks for speech recognition |
US20100198577A1 (en) * | 2009-02-03 | 2010-08-05 | Microsoft Corporation | State mapping for cross-language speaker adaptation |
US8301446B2 (en) * | 2009-03-30 | 2012-10-30 | Adacel Systems, Inc. | System and method for training an acoustic model with reduced feature space variation |
US8707381B2 (en) | 2009-09-22 | 2014-04-22 | Caption Colorado L.L.C. | Caption and/or metadata synchronization for replay of previously or simultaneously recorded live programs |
US20110184723A1 (en) * | 2010-01-25 | 2011-07-28 | Microsoft Corporation | Phonetic suggestion engine |
US9798653B1 (en) * | 2010-05-05 | 2017-10-24 | Nuance Communications, Inc. | Methods, apparatus and data structure for cross-language speech adaptation |
TWI420510B (zh) * | 2010-05-28 | 2013-12-21 | Ind Tech Res Inst | 可調整記憶體使用空間之語音辨識系統與方法 |
FI20106048A0 (fi) * | 2010-10-12 | 2010-10-12 | Annu Marttila | Kieliprofiloinnin menetelmä |
US8838449B2 (en) * | 2010-12-23 | 2014-09-16 | Microsoft Corporation | Word-dependent language model |
KR20130022607A (ko) * | 2011-08-25 | 2013-03-07 | 삼성전자주식회사 | 입술 이미지를 이용한 음성 인식 장치 및 이의 음성 인식 방법 |
US9348479B2 (en) | 2011-12-08 | 2016-05-24 | Microsoft Technology Licensing, Llc | Sentiment aware user interface customization |
US9378290B2 (en) | 2011-12-20 | 2016-06-28 | Microsoft Technology Licensing, Llc | Scenario-adaptive input method editor |
US8965763B1 (en) | 2012-02-02 | 2015-02-24 | Google Inc. | Discriminative language modeling for automatic speech recognition with a weak acoustic model and distributed training |
US8543398B1 (en) | 2012-02-29 | 2013-09-24 | Google Inc. | Training an automatic speech recognition system using compressed word frequencies |
US9390085B2 (en) | 2012-03-23 | 2016-07-12 | Tata Consultancy Sevices Limited | Speech processing system and method for recognizing speech samples from a speaker with an oriyan accent when speaking english |
US8374865B1 (en) | 2012-04-26 | 2013-02-12 | Google Inc. | Sampling training data for an automatic speech recognition system based on a benchmark classification distribution |
US9098494B2 (en) | 2012-05-10 | 2015-08-04 | Microsoft Technology Licensing, Llc | Building multi-language processes from existing single-language processes |
US8571859B1 (en) | 2012-05-31 | 2013-10-29 | Google Inc. | Multi-stage speaker adaptation |
US8805684B1 (en) | 2012-05-31 | 2014-08-12 | Google Inc. | Distributed speaker adaptation |
CN104428734A (zh) | 2012-06-25 | 2015-03-18 | 微软公司 | 输入法编辑器应用平台 |
US8880398B1 (en) | 2012-07-13 | 2014-11-04 | Google Inc. | Localized speech recognition with offload |
US8959109B2 (en) | 2012-08-06 | 2015-02-17 | Microsoft Corporation | Business intelligent in-document suggestions |
CN104823183B (zh) | 2012-08-30 | 2018-04-24 | 微软技术许可有限责任公司 | 基于特征的候选选择 |
US9123333B2 (en) | 2012-09-12 | 2015-09-01 | Google Inc. | Minimum bayesian risk methods for automatic speech recognition |
US9892733B2 (en) * | 2013-05-20 | 2018-02-13 | Speech Morphing Systems, Inc. | Method and apparatus for an exemplary automatic speech recognition system |
US10656957B2 (en) | 2013-08-09 | 2020-05-19 | Microsoft Technology Licensing, Llc | Input method editor providing language assistance |
CN104143328B (zh) * | 2013-08-15 | 2015-11-25 | 腾讯科技(深圳)有限公司 | 一种关键词检测方法和装置 |
US9472184B2 (en) * | 2013-11-06 | 2016-10-18 | Microsoft Technology Licensing, Llc | Cross-language speech recognition |
US9747897B2 (en) | 2013-12-17 | 2017-08-29 | Google Inc. | Identifying substitute pronunciations |
US9589564B2 (en) | 2014-02-05 | 2017-03-07 | Google Inc. | Multiple speech locale-specific hotword classifiers for selection of a speech locale |
US9412363B2 (en) | 2014-03-03 | 2016-08-09 | Microsoft Technology Licensing, Llc | Model based approach for on-screen item selection and disambiguation |
US9953631B1 (en) | 2015-05-07 | 2018-04-24 | Google Llc | Automatic speech recognition techniques for multiple languages |
US9678954B1 (en) * | 2015-10-29 | 2017-06-13 | Google Inc. | Techniques for providing lexicon data for translation of a single word speech input |
US9886958B2 (en) | 2015-12-11 | 2018-02-06 | Microsoft Technology Licensing, Llc | Language and domain independent model based approach for on-screen item selection |
US9697824B1 (en) | 2015-12-30 | 2017-07-04 | Thunder Power New Energy Vehicle Development Company Limited | Voice control system with dialect recognition |
US9437191B1 (en) * | 2015-12-30 | 2016-09-06 | Thunder Power Hong Kong Ltd. | Voice control system with dialect recognition |
CN106205634A (zh) * | 2016-07-14 | 2016-12-07 | 东北电力大学 | 一种大学英语口语学习与测试系统及其方法 |
US10468019B1 (en) * | 2017-10-27 | 2019-11-05 | Kadho, Inc. | System and method for automatic speech recognition using selection of speech models based on input characteristics |
KR102452644B1 (ko) * | 2017-10-31 | 2022-10-11 | 삼성전자주식회사 | 전자 장치, 음성 인식 방법 및 기록 매체 |
WO2020053862A1 (en) * | 2018-09-13 | 2020-03-19 | Ichannel.Io Ltd. | A system and computerized method for subtitles synchronization of audiovisual content using the human voice detection for synchronization |
US11227579B2 (en) * | 2019-08-08 | 2022-01-18 | International Business Machines Corporation | Data augmentation by frame insertion for speech data |
US11270123B2 (en) * | 2019-10-22 | 2022-03-08 | Palo Alto Research Center Incorporated | System and method for generating localized contextual video annotation |
US11032620B1 (en) * | 2020-02-14 | 2021-06-08 | Sling Media Pvt Ltd | Methods, systems, and apparatuses to respond to voice requests to play desired video clips in streamed media based on matched close caption and sub-title text |
CN111445898B (zh) * | 2020-03-17 | 2022-05-17 | 科大讯飞股份有限公司 | 语种识别方法、装置、电子设备和存储介质 |
US11568858B2 (en) * | 2020-10-17 | 2023-01-31 | International Business Machines Corporation | Transliteration based data augmentation for training multilingual ASR acoustic models in low resource settings |
TWI759003B (zh) * | 2020-12-10 | 2022-03-21 | 國立成功大學 | 語音辨識模型的訓練方法 |
US11683558B2 (en) * | 2021-06-29 | 2023-06-20 | The Nielsen Company (Us), Llc | Methods and apparatus to determine the speed-up of media programs using speech recognition |
US11736773B2 (en) * | 2021-10-15 | 2023-08-22 | Rovi Guides, Inc. | Interactive pronunciation learning system |
US11902690B2 (en) * | 2021-10-27 | 2024-02-13 | Microsoft Technology Licensing, Llc | Machine learning driven teleprompter |
US11785278B1 (en) * | 2022-03-18 | 2023-10-10 | Comcast Cable Communications, Llc | Methods and systems for synchronization of closed captions with content output |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07302351A (ja) * | 1994-05-09 | 1995-11-14 | Canon Inc | 画像・音声応答装置及び画像・音声応答方法 |
WO1998011534A1 (de) * | 1996-09-10 | 1998-03-19 | Siemens Aktiengesellschaft | Verfahren zur anpassung eines hidden-markov-lautmodelles in einem spracherkennungssystem |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5477451A (en) * | 1991-07-25 | 1995-12-19 | International Business Machines Corp. | Method and system for natural language translation |
US5717743A (en) * | 1992-12-16 | 1998-02-10 | Texas Instruments Incorporated | Transparent telephone access system using voice authorization |
JPH09500223A (ja) * | 1993-07-13 | 1997-01-07 | ボルドー、テオドール・オースチン | 多言語音声認識システム |
US5540589A (en) * | 1994-04-11 | 1996-07-30 | Mitsubishi Electric Information Technology Center | Audio interactive tutor |
US5697789A (en) * | 1994-11-22 | 1997-12-16 | Softrade International, Inc. | Method and system for aiding foreign language instruction |
JPH0916602A (ja) * | 1995-06-27 | 1997-01-17 | Sony Corp | 翻訳装置および翻訳方法 |
US5963903A (en) * | 1996-06-28 | 1999-10-05 | Microsoft Corporation | Method and system for dynamically adjusted training for speech recognition |
DE19634138A1 (de) * | 1996-08-23 | 1998-02-26 | Siemens Ag | Handgerät zum interaktiven Lernen von Sprachen |
US5915001A (en) * | 1996-11-14 | 1999-06-22 | Vois Corporation | System and method for providing and using universally accessible voice and speech data files |
-
1998
- 1998-07-10 US US09/113,589 patent/US6085160A/en not_active Expired - Lifetime
-
1999
- 1999-07-08 EP EP99933088A patent/EP1095371A1/en not_active Withdrawn
- 1999-07-08 JP JP2000559559A patent/JP2002520664A/ja active Pending
- 1999-07-08 WO PCT/IB1999/001406 patent/WO2000003386A1/en not_active Application Discontinuation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07302351A (ja) * | 1994-05-09 | 1995-11-14 | Canon Inc | 画像・音声応答装置及び画像・音声応答方法 |
WO1998011534A1 (de) * | 1996-09-10 | 1998-03-19 | Siemens Aktiengesellschaft | Verfahren zur anpassung eines hidden-markov-lautmodelles in einem spracherkennungssystem |
JP2001503154A (ja) * | 1996-09-10 | 2001-03-06 | シーメンス アクチエンゲゼルシヤフト | 音声認識システムにおける隠れマルコフ音声モデルの適合方法 |
Non-Patent Citations (2)
Title |
---|
A.CONSTANTINESCU, ET AL.: ""On Cross-Language Experiments and Data-Driven Units for ALISP(Automatic Language Independent Speech", PROCEEDINGS OF AUTOMATIC SPEECH RECOGNITION AND UNDERSTANDING, 1997, JPN6009056502, December 1997 (1997-12-01), pages 606 - 613, XP002121360, ISSN: 0001453346 * |
T.SCHULTZ, ET AL.: ""FAST BOOTSTRAPPING OF LVCSR SYSTEMS WITH MULTILINGUAL PHONEME SETS"", PROCEEDINGS OF THE 5TH EUROPEAN CONFERENCE ON SPEECH COMMUNICATION AND TECHNOLOGY(EUROSPEECH '97), vol. 1, JPN7009004745, September 1997 (1997-09-01), pages 371 - 374, ISSN: 0001453347 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008513825A (ja) * | 2004-09-23 | 2008-05-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 話者に依存しない堅牢な音声認識システム |
JP4943335B2 (ja) * | 2004-09-23 | 2012-05-30 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 話者に依存しない堅牢な音声認識システム |
JP2012103554A (ja) * | 2010-11-11 | 2012-05-31 | Advanced Telecommunication Research Institute International | 音声言語識別装置の学習装置、音声言語の識別装置、及びそれらのためのプログラム |
JP2012177815A (ja) * | 2011-02-28 | 2012-09-13 | National Institute Of Information & Communication Technology | 音響モデル学習装置、および音響モデル学習方法 |
JP2017513047A (ja) * | 2014-03-04 | 2017-05-25 | アマゾン テクノロジーズ インコーポレイテッド | 音声認識における発音予測 |
US10339920B2 (en) | 2014-03-04 | 2019-07-02 | Amazon Technologies, Inc. | Predicting pronunciation in speech recognition |
Also Published As
Publication number | Publication date |
---|---|
EP1095371A1 (en) | 2001-05-02 |
WO2000003386A1 (en) | 2000-01-20 |
US6085160A (en) | 2000-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6085160A (en) | Language independent speech recognition | |
CN111566655B (zh) | 多种语言文本语音合成方法 | |
US8275621B2 (en) | Determining text to speech pronunciation based on an utterance from a user | |
US7415411B2 (en) | Method and apparatus for generating acoustic models for speaker independent speech recognition of foreign words uttered by non-native speakers | |
US7937262B2 (en) | Method, apparatus, and computer program product for machine translation | |
US8065144B1 (en) | Multilingual speech recognition | |
JP4481035B2 (ja) | 単語間音素情報を利用した連続音声認識方法および装置 | |
US20060229870A1 (en) | Using a spoken utterance for disambiguation of spelling inputs into a speech recognition system | |
US20100057435A1 (en) | System and method for speech-to-speech translation | |
US20070239455A1 (en) | Method and system for managing pronunciation dictionaries in a speech application | |
US20090138266A1 (en) | Apparatus, method, and computer program product for recognizing speech | |
Goronzy | Robust adaptation to non-native accents in automatic speech recognition | |
JP2002304190A (ja) | 発音変化形生成方法及び音声認識方法 | |
JPH0922297A (ja) | 音声‐テキスト変換のための方法および装置 | |
US20070294082A1 (en) | Voice Recognition Method and System Adapted to the Characteristics of Non-Native Speakers | |
Huang et al. | Dialect/accent classification using unrestricted audio | |
JP2000029492A (ja) | 音声翻訳装置、音声翻訳方法、音声認識装置 | |
JP3776391B2 (ja) | 多言語音声認識方法、装置、プログラム | |
JP2006084966A (ja) | 発話音声の自動評定装置およびコンピュータプログラム | |
KR100484493B1 (ko) | 다중 발음사전을 이용한 대화체 연속 음성인식 시스템 및방법 | |
JP4163207B2 (ja) | 多言語話者適応方法、装置、プログラム | |
JP2001188556A (ja) | 音声認識方法及び装置 | |
Ito | Spoken dialogue system development without speech recognition towards language revitalization | |
Wong et al. | Multilingual phone clustering for recognition of spontaneous indonesian speech utilising pronunciation modelling techniques. | |
KR100445907B1 (ko) | 음성언어 식별 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060703 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091104 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20100204 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20100212 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100511 |