JP2002520664A - 言語に依存しない音声認識 - Google Patents

言語に依存しない音声認識

Info

Publication number
JP2002520664A
JP2002520664A JP2000559559A JP2000559559A JP2002520664A JP 2002520664 A JP2002520664 A JP 2002520664A JP 2000559559 A JP2000559559 A JP 2000559559A JP 2000559559 A JP2000559559 A JP 2000559559A JP 2002520664 A JP2002520664 A JP 2002520664A
Authority
JP
Japan
Prior art keywords
speech
language
languages
words
vocabulary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000559559A
Other languages
English (en)
Inventor
ダフーア、バート
バン・コンパノール、ダーク
Original Assignee
ルノー・アンド・オスピー・スピーチ・プロダクツ・ナームローゼ・ベンノートシャープ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ルノー・アンド・オスピー・スピーチ・プロダクツ・ナームローゼ・ベンノートシャープ filed Critical ルノー・アンド・オスピー・スピーチ・プロダクツ・ナームローゼ・ベンノートシャープ
Publication of JP2002520664A publication Critical patent/JP2002520664A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling

Abstract

(57)【要約】 音声認識システムは、単語に結び付けられるスピーチユニットを表現するための他言語からのスピーチデータから得られる、言語に依存しない音響モデルを用いる。それに加えて、言語に依存しない音響モデルと比較される入力スピーチ信号は、他言語からのスピーチデータから得られるコードブックに従って量子化されたベクトルであってもよい。

Description

【発明の詳細な説明】
【0001】 発明の技術分野 本発明は、音声認識システムに関する。
【0002】 発明の背景技術 現行の音声認識システムは、ただ個々の言語のみをサポートする。もし、もう
一つの言語が認識される必要があるならば、音響モデルは交換されなければなら
ない。大抵の音声認識システムのために、記録されたスピーチの大きい集まりか
ら統計上の情報を抽出することによって、これらのモデルが構築されるか、ある
いは、トレーニングされる。所定の言語において音声認識を提供するために、あ
る言語のすべての音を表す音素として知られるシンボルのセットを典型的に定義
する。いくらかのシステムは、所定の言語の基準音を表すために、「音素的ユニ
ット」としてより一般的に知られる他の部分語(サブワード)のユニットを用い
る。これらの音素的ユニットは、隠れマルコフモデル(HMMs)及び当該技術
において周知である他の音声モデルによって設計されるバイフォン(biphone)
とトライフォン(triphone)を含む。
【0003】 話されたサンプルの多くは、典型的に、各音素について音響モデルの抽出を可
能にするために記録される。通常、多くのネイティブスピーカー(母国語話者)
、すなわち、言語を母国語とする人は、多くの発話を記録することを必要とされ
る。一セットの録音は、スピーチデータベースとして言及される。サポートされ
るべきすべての言語のためのそのようなスピーチデータベースの録音は、非常に
高価であり、時間の浪費でもある。
【0004】 発明の概要 (以下の記述と特許請求の範囲において、もし、文脈が他の意味で用いること
を要求するのでなければ、音声認識システムに関連する用語「言語に依存しない
(language independent)」は、音声認識システムにおいて設計される複数の言
語に独立して存在する認識能力を意味する。) 本発明の好ましい実施の形態では、スピーチプリプロセッサ、音響モデルのデ
ータベース、言語モデル、及びスピーチレコグナイザー(認識器)を備える、言
語に依存しない音声認識システムが提供される。スピーチプリプロセッサは、入
力スピーチを受信し、入力スピーチを表すスピーチ関連信号を生成する。音響モ
デルのデータベースは、複数の言語のそれぞれで各サブワードユニットを表す。
言語モデルは、認識可能な単語の語彙及び一セットの文法規則の特性を表し、ス
ピーチ認識器は、スピーチ関連信号と音響モデル及び言語モデルとを比較し、入
力スピーチを少なくとも一単語の特定の単語シーケンスとして認識する。
【0005】 さらに関連した実施の形態では、スピーチプリプロセッサは、スピーチ関連信
号を生成するために、適切なスピーチパラメーターを抽出する特徴抽出器を備え
る。特徴抽出機は、スピーチデータを用いて複数の言語から作られたコードブッ
クを含み、スピーチ関連が一連の特徴ベクトルであるようなベクトル量子化を用
いてもよい。
【0006】 その代わりに、あるいはそれに加えて、一実施の形態は、スピーチデータを用
いて複数の言語から音響モデルを作ってもよい。サブワードユニットは、少なく
とも一つの音素、音素の一部、及び音素のシーケンスであってもよい。認識可能
な単語の語彙は、固有名詞、複数の言語に存在しない言語内の単語、又は、外来
の単語を含む複数の言語における単語を含んでもよい。それに加えて、認識可能
な単語の語彙における単語は、データベースから音響モデルのユーザーによって
調整されたシーケンスで構成された声紋によって記述されてもよい。そのような
一実施の形態は、スピーチ入力の話者の同一性を決定するために声紋を用いる話
者識別器(speaker identifier)をさらに含んでもよい。
【0007】 さらにもう一つの実施の形態では、スピーチ認識器は、適切なスピーチパラメ
ーターと、複数の言語中の第1の言語のサブワードユニットを表す音響モデルと
を比較し、それから、ネイティブスピーカーでない人からの入力スピーチが認識
され得るように、複数の言語中の第2の言語の少なくとも1つの単語の特定の単
語シーケンスとしてスピーチ入力を認識してもよい。
【0008】 本発明のもう一つの実施の形態は、コンピューターにロードされるとき、記述
された言語に依存しない音声認識システムの一実施の形態に関連して操作するユ
ーザーに外国語を教えるためのコンピュータープログラムでコード化されたコン
ピューターで読取り可能なデジタル記憶媒体を含む。
【0009】 本発明の実施の形態は、また、上述されたシステムの一つを用いる言語に依存
しない音声認識システムの方法を含む。
【0010】 好ましい実施の形態の詳細な記述 先行技術における典型的な音声認識エンジンの操作は、図1に示される。スピ
ーチ信号10は、プリプロセッサ11に送られ、そこでは、適切なパラメーター
がスピーチ信号10から抽出される。パターンマッチング認識器12は、音響モ
デル13と言語モデル14に基づいて、最も良い単語シーケンス認識結果15を
見付け出すよう試みる。言語モデル14は、単語と、その単語が文を形成するた
めにどのように接続するかを記述する。それは、孤立された単語認識器の場合に
は単語のリストと同様にシンプルであり、また、大語彙の連続音声認識のための
統計的な言語モデルと同様に複雑であってもよい。音響モデル13は、プリプロ
セッサ11からのスピーチパラメーターと認識されるべき認識シンボルとの間の
リンクを確立する。中及び大語彙システムでは、認識シンボルは、音素、又は単
語を形成するために結び付けられる音素的ユニットである。音声認識システムの
設計におけるさらなる情報は、例えば、ラビナー(Rabiner)とジュアング(Jua
ng)による、1993年プリエンティスホール「音声認識の基礎」(以下、「ラ
ビナーとジュアング」という。)で提供される。
【0011】 先行技術のシステムでは、図2に示されるように、あらゆる所定の言語1のた
めに、言語1−特定記録スピーチデータ20は、その言語において各音素21を
表す音響モデル22を生成するために用いられる。他の所定の言語2の場合には
、言語2−特定記録スピーチデータ25は、その言語2における各音素23を表
すその言語特有の他の音響モデル24を生成するために用いられる。
【0012】 図3は、本発明の好ましい実施の形態において生成される音響モデルを示す。
スピーチデータを記録し、別々にすべての言語のための音響モデルを構築する代
わりに、上述のように、世界すべての言語、あるいは、ヨーロッパ又は東洋の言
語のような大グループの言語、あるいは任意の複数の言語をサポートするのに、
音響モデルの唯一の全体集合が用いられる。これを達成するために、統計的な情
報が音響モデルを創り出すために検索されるスピーチデータベースは、いくつか
の言語のスピーチ33を含み、すべての可能な音素又はこれらの言語における音
素的ユニットをカバーする。したがって、特定の音素の音響モデルは、多言語か
らのスピーチに基づいて組み立てられる。それゆえ、すべての望ましい言語をカ
バーする全音素のリスト31は、対応する音響モデル32とともに、音声認識シ
ステムに含まれる。各音素31が単音のユニークな表現であるので、いくつかの
言語に現れる音は、同じ音素によって表され、同じ対応する音響モデル32を持
つ。音素の代わりに、別の実施の形態は、隠れマルコフモデル(HMMs)等に基づ
くバイフォンとトライフォンのような、音素的なサブワードユニットを用いても
よい。もう一つの実施の形態では、図1の言語モデル14は省略され、認識器1
2によるパターンマッチングは、プリプロセッサ11からのスピーチパラメータ
ーと音響モデル13との比較のみに基づいてもよい。
【0013】 好ましい実施の一形態における音声認識システムは、離散密度HMM音素ベー
スの連続認識エンジンに基づいており、図4に示される。これらの認識エンジン
は、電話スピーチ、マイクロフォンスピーチ、又は他の有利な応用のために有用
である。入力スピーチ信号は、最初にある形態の前処理を受ける。図4に示され
るように、好ましい実施の一形態は、入力スピーチ信号を処理し、10ミリ秒毎
に一度30ミリ秒のスピーチセグメントのために、エネルギーとスペクトルのプ
ロパティ(ケプストラム)を計算する、ベクトル量子化特性抽出モジュール41
を用いる。電話音声認識エンジンの好ましい実施の形態は、第1及び第2オーダ
ーの派生語とともに、12ケプストラム係数とログエネルギーを導出するために
、一般に周知のLPC解析法を用いる。マイクロフォン音声認識エンジンの好ま
しい実施の形態は、同一の目的を達成するために、一般に周知のMEL−FFT
法を用いる。各スピーチフレームのための両エンジンの結果は、12ケプストラ
、12デルタケプストラ、12デルタデルタケプストラ、デルタログエネルギー
、及びデルタデルタログエネルギーのベクトルである。これらのスピーチ前処理
技術は、当該技術では周知である。この主題の追加の議論のために、例えば、ラ
ビナーとジュアングの「スープラ(supra)」112〜117、188〜190
頁を見よ。その処理の残りの部分は、両エンジンとも同じである。
【0014】 離散密度HMMを使用する好ましい実施の形態では、このシステムは、特性ベ
クトルに最もよくマッチするコードブック43からの原型(又はコード語)がそ
れぞれの観察された特性ベクトルに取って替わるベクトル量子化特性抽出モジュ
ール41を使用する。コードブック43は、コードブック43の全ひずみを最小
にする一般に用いられるk手段密集方法のような、いくらかの費用関数を最小に
するアルゴリズム46とともに、複数の言語のそれぞれから記録されたスピーチ
データ45を含む大きいスピーチデータベース44を用いて設計され、作り出さ
れる。先行技術における単言語システムコードブックは、目的言語のみからのス
ピーチデータを用いて設計され、作り出される。他方、本発明の好ましい実施の
形態は、すべての言語からのデータが同等量あるように、大多数の言語からのス
ピーチを用い、スピーチデータを選択する多言語モデルに基づいている。そのよ
うな実施の形態では、ケプストラのための一つ、デルタケプストラのための一つ
、デルタデルタケプストラのための一つ、及びデルタログエネルギーとデルタデ
ルタログエネルギーのための一つから、4つのコードブック43が組み立てられ
てもよい。各コードブック43は、設計アルゴリズムを用いる:
【0015】 以上、好ましい実施の形態が、スピーチ入力信号を初めに処理するためのベク
トル量子化技術に基礎を置くコードブックを用いるように記述されたが、本発明
の他の実施の形態では、例えば、連続密度に基づく音声認識システムで用いられ
るように、最初のスピーチ処理の他の方法を使用してもよい。
【0016】 上述のように、入力スピーチ信号がベクトル量子化によって前処理されると、
図4において48のスピーチ認識器は、スピーチ信号と、言語モデル49及び音
素データベース47における音響モデルとを比較する。どれか一つの特定の言語
の音素(または他のサブワードユニット)のための音響モデルを作る代わりに、
好ましい実施の形態は、多数の言語に現れるすべての音素のための音響モデルを
用いる。そのようなすべての言語に依存しない音素のリストは、様々な望ましい
言語のそれぞれから特定の音素リストを併合することによって組み立てられる。
好ましい実施の形態は、L&H+、即ち、単一のシンボルによって各音を表すす
べての言語をカバーするために設計された音声アルファベットを用いる。そこで
は、各シンボルは、単一の音を表す。テーブル1は、イギリス英語、オランダ語
、アメリカ英語、フランス語、ドイツ語、イタリア語、スペイン語、及び日本語
にマイクロフォンモデルを向けるために用いられる多言語音素リストを示す。各
音素のために、そのテーブルは、それがどの言語に現れるかを示す。例えば、音
素Aは、イギリス英語、オランダ語、アメリカ英語、フランス語、及び日本語の
スピーチに向けられる。
【0017】 単一言語と多言語の音響モデルのためのトレーニング手続は、ともに標準トレ
ーニング技術を用いる。それらは、渡されるデータのタイプとトレーニングされ
るスピーチユニットにおいて異なる。トレーニングは、特定の音素セットをカバ
ーする音響モデル47のデータベースの構築として見られ得る。トレーニング処
理は、離散密度HMMのViterbiトレーニングを用いる文脈に依存しない
モデルをトレーニングすることによって始まる。それから、音素モデルは、14
クラスに自動的に分類される。クラス情報に基づいて、文脈依存の音素モデルが
組み立てられる。次に、文脈依存のモデルは、離散密度HMMのViterbi
トレーニングを用いてトレーニングされる。文脈依存及び文脈に依存しない音素
モデルは併合され、最後に、劣悪にトレーニングされた文脈依存のモデルは、文
脈に依存しないモデルより円滑にされる。そのような音響モデルトレーニング方
法は、音声認識の技術においては周知である。これに類似のトレーニング技術は
、連続密度に基づく音声認識システムベースのような、他の実施の形態で使用さ
れてもよい。
【0018】 先行技術の単一言語音響モデルは、目標言語からのスピーチに向けてトレーニ
ングされる。したがって、所定の音素の音響モデルは、単一言語からのスピーチ
サンプルのみに基づいてトレーニングされる。音声認識器エンジンは、その言語
の単語のみを認識し得る。いくつかの言語のための別々の音響モデルライブラリ
ーが構成されてもよいが、それらは、容易に結合され得ない。離散密度音声認識
システムベースにおいて、言語がちがうとコードブックが相容れないので、それ
らを一つのデータベースにまとめることさえ可能ではない。他方、好ましい実施
の形態における多言語音響モデルは、多言語から記録されたスピーチデータ45
を含むスピーチデータベース44に向けられる。トレーニングの結果、言語に依
存しない音素の全リストに対応する離散密度HMM音響モデル47のデータベー
スが与えられる。音素モデルには、それが一つの言語でのみ観察されるので、特
定の言語にのみ用いられるものもある。他の音素モデルは、一つより多い言語か
らのスピーチに向けられる。
【0019】 そのシステムは、音響モデルデータベース47に入っているスピーチユニット
で、認識し得る単語の発音を表すことによって、その語彙の単語を表現する。単
一言語音響モデルデータベースの場合には、これは、一言語の単語だけが記述さ
れ得ることを意味する。また、外国の単語の場合は、その特定の言語のスピーチ
ユニットでそれらを記述することによって単語をシミュレートすることを意味す
る。好ましい実施の形態では、多言語音響モデルデータベース47は、目標とさ
れる複数の言語のいずれかの単語を記述し得る音素モデルを含む。単一言語か又
は多言語のいずれの実施においても、単語は、自動的にあるいはユーザーとの対
話によって音声認識システムの語彙に加えられてもよい。しかしながら、自動的
かあるいは対話式かに関わらず、多言語認識器の好ましい実施の形態は、認識器
が知っているいくつかの言語の単語を含み得る語彙、即ち、単語のリストを用い
る。従って、異なる言語の単語を認識することは可能である。単語追加のための
詳細な手順は、単一言語と多言語音声認識システムで結果的に異なる。
【0020】 単一言語システムでは、対話式単語追加モードは、ユーザーが単語(例えば、
「L&H」)をタイプすることによってそれを入力して始まる。新しい単語は、
自動的なテキストから音声への変換モジュールに導く、規則に基づくシステムに
よって、あるいは、辞書検索によって、音素表現に自動的に変換される。ユーザ
ーは、ちょうど生成された音訳を読み上げるテキスト音声変換システム(例えば
、そのシステムは「ルーノウトアンドオスピープロダクツ(Lernout and Hauspi
e Speech Products)」という)の出力を聞くことによって、音訳をチェックし
得る。もし、ユーザーがその発音に満足しないならば、彼は、2つの方法(例え
ば、ユーザーが「エルとエイチ(el and eitch)」を好むだろう)で音訳を変更
し得る。直接音訳を編集することによって、ユーザーは、テキストから音声への
システムで変えられた音声ストリングを再生させることによって、なされた変更
を聞き得る。また、ユーザーは、彼が実際に別のつづりの分野で欲するもののよ
うに響く単語(例えば、「L. and H.」)を入力してもよく、システムは、音の
ようなアイテムを音素に変換し、「リアルな」音のための音訳としてこれを用い
る。ユーザーが新しい単語の発音に満足すると、彼は、それを受け入れ得、音訳
ユニットがモデルデータベースから検索され、その単語が認識器に加えられ、認
識され得るに至る。
【0021】 しかしながら、好ましい実施の形態の多言語システムは、対話式で単語を加え
るための手順が幾らか異なる。第一に、前と同様に、ユーザーは、それをタイプ
することによって新しい単語を入力する。システムは、辞書検索及び/又は規則
に基づくシステムを介して、単語の言語を自動的に決定し、ユーザーに1以上の
選択対象の種類を示す。選ばれた言語のそれぞれについて、その単語は、その特
定の言語の自動的なテキストから音声への変換モジュールから得られた規則に基
づくシステムによって音声表現に自動的に変換される。ユーザーは、ちょうど生
成される音訳を読み出すテキスト−音声システムの出力を聞くことによって、音
訳をチェックし得る。もし、システムがなした言語選択にユーザーが満足しない
ならば、彼は、システムを無効にして、1以上の言語を直接指摘し得る。もし、
ユーザーが発音に満足しないならば、彼は、選択された言語のそれぞれについて
、2つの方法で音訳を変更し得る。ユーザーは、直接音訳を編集してもよい。彼
は、テキスト−音声システムで、変えられた音声ストリングを再生することによ
って、なされた変更を聞き得る。このようにして、ユーザーは、もう一つの言語
から来る音素記号を使用し得るが、変更を聞くことが必ずしも可能ではない。そ
の代わりに、ユーザーは、別のつづりの分野で彼が実際に欲するもののように響
く単語を入力してもよい。システムは、音のようなアイテムを音素に変換し、こ
れを「リアルな」単語のための音訳として用いる。ユーザーが単語の音訳に満足
すると、彼はそれを受け入れ得る。音訳ユニットは、モデルデータベースから検
索され、単語は認識器に追加され、認識され得るに至る。
【0022】 認識器に単語を入力するための自動モードもまた、単一言語と多言語とシステ
ム間で異なる。単一言語システムでは、アプリケーションプログラムは、音声認
識システムに認識させたい単語を与え、その単語は、自動的なテキストから音声
への変換モジュールから与えられる規則に基づくシステムによって、あるいは、
辞書検索によって、音声表現に自動的に変換される。音訳ユニットは、モジュー
ルデータベースから検索され、その単語は、認識器に追加され、認識され得るに
至る。しかしながら、好ましい実施の形態の多言語システムでは、アプリケーシ
ョンプログラムは、音声認識システムに認識させたい単語を与え、その単語につ
いて1以上の言語を随意に示す。もし、言語が示されないならば、システムは、
辞書検索によって、あるいは、規則に基づくシステムを介して、自動的に言語を
決定し、1以上の言語選択を与える。各言語のために、単語は、自動的なテキス
トから音声への変換モジュールで得られる規則に基づくシステムによって、音声
表現に自動的に変換される。音訳ユニットは、モデルデータベースから検索され
、単語は、認識器に加えられ、認識され得るに至る。
【0023】 好ましい実施の形態の多言語システムもまた、翻訳モードをサポートする。そ
のようなシステムでは、1以上の単語は、上記で説明された手順に従って単一言
語のための認識器に加えられる。自動翻訳システムは、認識器によってサポート
される1以上の他の言語に単語を翻訳する。各単語について、システムは、1以
上の候補を提案し得る。自動的に翻訳された単語は、認識器に加えられ、あるい
は、対話式に編集されてもよい。
【0024】 好ましい実施の形態は、また、新しい言語の単語の認識を可能にする。特定の
言語のために生成する音響モデルが大量のスピーチデータの記録を必要とするの
で、新しい言語のための音声認識器の開発は、コストがかかり、時間も消費する
。多言語認識器のモデルデータベースは、単一言語モデルよりも多くの音素をサ
ポートする。このデータベースにサポートされていない音素を見出す可能性は低
いので、トレーニングデータに存在しなかった言語の単語を記述することが可能
になる。この記述は、単一の異なる言語の音素における単語の記述よりもずっと
正確である。新しい言語の単語を認識するために、好ましい実施の形態は、新し
い単語とそれらの音声表現の入力だけを必要とする。トレーニングの必要はない
【0025】 先行技術の音声認識システムは、一般的に、ネイティブでない話者からのスピ
ーチを認識するのにてこずる。それには2つの主な理由がある。1)ネイティブ
でない話者は、時々単語を正確に発音しない、2)ネイティブでない話者は、時
々、いくつかの音を正確に発音しない、である。好ましい実施の形態におけるよ
うな多言語モデルは、ネイティブでない話者のスピーチをより効果的に認識する
。なぜならば、各音素のためのモデルは、いくつかの言語でトレーニングされ、
アクセントによる変化により強い。それに加えて、単語の語彙を作るとき、ユー
ザーは、音訳を容易に編集でき、外国語の影響を記述するために、異なる言語の
音素を用いることが可能である。
【0026】 話者に依存する単語のトレーニングのような、あるアルゴリズムは、ユーザー
による特定の単語のわずかな発話に基づいて、その単語の最大限可能な音訳を見
出そうと試みる。ほとんどの場合、ユーザーのネイティブ言語は、知られない。
単一言語モデルが用いられるとき、音声認識システムは、たとえ、スピーチが完
全に異なる言語からであっても、スピーチを言語の特定のシンボルにマッピング
するのに制限される。ネイティブでない話者は、単一言語モデルのモデルデータ
ベースによってうまく表され得ない音を作り出すかもしれない。本発明の好まし
い実施の形態は、音素モデルデータベースがずっと広い音の範囲をカバーするの
で、このタイプの問題を避ける。単語は、ユーザーに数回単語を発音させること
によって、認識器に加えられ得る。システムは、音素モデルデータベースと口に
出されるスピーチに基づいて、単語を記述するために、最大限可能な音素若しく
はモデルユニットシーケンスを自動的に構築するだろう。このシーケンスは、声
紋として言及される。これらの声紋は、話者によるトレーニングされた単語の発
話を認識するために用いられ得る。声紋が他の話者のスピーチより目標とされる
話者のスピーチによりよくマッチするので、それは、また、話者の識別を確認又
は検出するために、用いられ得る。これは、話者照合あるいは話者識別として言
及される。
【0027】 好ましい実施の形態は、また、言語に依存する音訳で言語に依存しない単語の
認識のために、有利に用いられる。いくつかの単語の発音は、話者の母国語に強
く依存する。これは、ユーザーの母国語が異なるか不明である場合のシステムで
は問題である。典型的な例は、固有名詞の認識である。オランダの名前は、オラ
ンダ人の話者とフランス人の話者によって異なって発音される。言語に依存する
システムは、通常、母国語の音素にマッピングすることによって外国人の発音変
形を記述する。上述のように、好ましい実施の形態の音声認識システムに単語を
加え、それが複数の言語で話されることを示すのは可能である。システムは、い
くつかの言語から規則セットで単語を翻訳して、いくつかの音訳を生成する。認
識器は、並列してすべての音訳を用いるので、すべての発音変形をカバーする。
これは、言語が知られない様々な話者によって用いられるアプリケーションにお
いて、固有名詞を認識するために特に有用である。
【0028】 言語学習プログラムは、ユーザーが生きた家庭教師の介入なしに、ある言語を
話すために学ぶことを助けるコンピュータープログラムである。自動音声認識シ
ステムは、しばしば、ユーザーの進歩を自らテストするのを助け、ユーザーが学
ばれるべき言語の発音を向上するのを助けるために、そのようなプログラムにお
いて用いられる。認識器の信頼レベル、即ち、モデルが発せられたスピーチにど
れくらいうまくマッチするかの示度は、ユーザーがそのモデルによって表される
単語又は分節をどれくらいうまく発音したかの示度である。モデルが発せられた
スピーチ、文節中の単語、あるいは発話中の音素の小さい部分にどれくらいうま
くマッチするかの測定である、局所の信頼は、ユーザーがどのようなタイプの間
違いをしたかの示度を与え得、ユーザーが取り組むべき特定の問題領域を示すた
めに用いられ得る。多言語モデルは、単一言語モデルより言語学習応用のために
より適する。母国語として言語1を持ち、言語2を学びたいユーザーは、言語対
(言語1、言語2)の典型的な間違いを犯すであろう。言語2にあるいくつかの
音素は、言語1には存在せず、そのため、母国語として言語1を持つ人々にとっ
て知られていない。彼らは、典型的に、言語1にある音素で知らない音素を置き
換え、それにより単語を間違って発音する。典型的な例は、フランス人がフラン
ス語の方法で英語のテキストの英単語を発音することである。なぜならば、同じ
単語が、フランス語にも存在するからである。このタイプの間違いは、各言語対
(言語1、言語2)における典型である。言語1あるいは言語2で特定される、
単一言語認識システムは、このような代用を検出できない。なぜならば、特定の
音素結合を記述するモデルが、利用可能でないからである。多言語モデルは、言
語1と言語2のすべての音素がカバーされるので、このタイプの間違いを検出す
るために用いられ得る。したがって、言語対に典型的な間違いを記述し、自動音
声認識システムの助けで特定の間違いを自動的に検出する規則で拡張される言語
対のための言語学習システムを作り出すことが可能になる。
【図面の簡単な説明】
本発明は、添付図面とともに得られる次の詳細な記述を参照することによって
、より容易に理解されるだろう。
【図1】 図1は、典型的な音声認識システムに結び付けられる論理フローを図示する。
【図2】 図2は、先行技術による多言語のための音素の音響モデルを図示する。
【図3】 図3は、好ましい実施の形態による音素の全体集合を用いる多言語音響モデル
を図示する。
【図4】 図4は、好ましい実施の形態による音声認識システムを図示する。

Claims (26)

    【特許請求の範囲】
  1. 【請求項1】 言語に依存しない音声認識システムであって、 a. 入力スピーチを受信し、該入力スピーチに関連するスピーチ関連信号を
    生成するスピーチプリプロセッサと、 b. 複数の言語のそれぞれの各サブワードを表す音響モデルのデータベース
    と、 c. 認識可能な単語の語彙と一セットの文法規則の特徴を表す言語モデルと
    、 d. 前記スピーチ関連信号を前記音響モデル及び前記言語モデルと比較し、
    少なくとも一つの単語の特定の単語シーケンスとして前記入力スピーチを認識す
    る音声認識器と、 を備えることを特徴とするシステム。
  2. 【請求項2】 前記スピーチプリプロセッサは、前記スピーチ関連信号を生
    成するために、適切なスピーチパラメーターを抽出する特徴抽出器を備えること
    を特徴とする請求項1記載のシステム。
  3. 【請求項3】 前記特徴抽出器は、前記複数の言語からスピーチデータを用
    いて作り出されるコードブックを含み、前記スピーチ関連信号が一連の特徴ベク
    トルであるように、該特徴抽出器がベクトル量子化を用いることを特徴とする請
    求項2記載のシステム。
  4. 【請求項4】 前記音響モデルは、前記複数の言語からスピーチデータを用
    いて作り出されることを特徴とする請求項1記載のシステム。
  5. 【請求項5】 前記サブワードユニットは、音素、音素の一部、及び音素の
    シーケンスの少なくとも一つであることを特徴とする請求項1記載のシステム。
  6. 【請求項6】 前記認識可能な単語の語彙は、前記複数の言語の単語を含む
    ことを特徴とする請求項1記載のシステム。
  7. 【請求項7】 前記認識可能な単語の語彙は、外来の単語を含むことを特徴
    とする請求項1記載のシステム。
  8. 【請求項8】 前記認識可能な単語の語彙は、前記複数の言語の固有名詞を
    含むことを特徴とする請求項1記載のシステム。
  9. 【請求項9】 前記認識可能な語彙内の単語は、前記データベースから音響
    モデルのユーザーによって調整されたシーケンスで構成された声紋によって記述
    されることを特徴とする請求項1記載のシステム。
  10. 【請求項10】 e. スピーチ入力の話者の同一性を決定するために前記
    声紋を用いる話者識別器、 をさらに備えることを特徴とする請求項9記載のシステム。
  11. 【請求項11】 前記認識可能な単語の語彙は、前記複数の言語に存在しな
    い一の言語の単語を含むことを特徴とする請求項1記載のシステム。
  12. 【請求項12】 前記音声認識器は、前記複数の言語内の第1の言語のサブ
    ワードユニットを表す音響モデルと前記適切なスピーチパラメーターを比較し、
    ネイティブスピーカーでない人からの入力スピーチが認識されるように、前記複
    数の言語内の第2の言語の少なくとも一つの単語の特定の単語シーケンスとして
    スピーチ入力を認識することを特徴とする請求項1記載のシステム。
  13. 【請求項13】 ユーザーに外国語を教えるためのコンピュータープログラ
    ムで符号化されたコンピューターが読取り可能なデジタル記憶媒体であって、 コンピューターにロードされるとき、請求項1記載の言語に依存しない音声認
    識システムに関連して作動することを特徴とする記憶媒体。
  14. 【請求項14】 言語に依存しない音声認識方法であって、 a. スピーチプリプロセッサで入力スピーチを受信し、該入力スピーチを表
    すスピーチ関連信号を生成するステップと、 b. 音響モデルのデータベースにおいて、複数の言語のそれぞれの各サブワ
    ードユニットを表すステップと、 c. 言語モデルにおいて、認識可能な単語の語彙と一セットの文法規則を特
    徴付けるステップと、 d. 音声認識器において、前記スピーチ関連信号を前記音響モデル及び前記
    言語モデルと比較し、少なくとも一つの単語の特定の単語シーケンスとして前記
    入力スピーチを認識するステップと、 を有することを特徴とする方法。
  15. 【請求項15】 前記受信するステップは、適切なスピーチパラメーターを
    抽出し、前記スピーチ関連信号を生成するための特徴抽出器をさらに備えるスピ
    ーチプリプロセッサを用いることを特徴とする請求項14記載の方法。
  16. 【請求項16】 前記特徴抽出器は、前記複数の言語からスピーチデータを
    用いて作り出されるコードブックを含み、前記スピーチ関連信号が一連の特徴ベ
    クトルであるように、該特徴抽出器がベクトル量子化を用いることを特徴とする
    請求項15記載の方法。
  17. 【請求項17】 前記音響モデルは、前記複数の言語からスピーチデータを
    用いて作り出されることを特徴とする請求項14記載の方法。
  18. 【請求項18】 前記サブワードユニットは、音素、音素の一部、及び音素
    のシーケンスの少なくとも一つであることを特徴とする請求項14記載の方法。
  19. 【請求項19】 前記認識可能な単語の語彙は、前記複数の言語の単語を含
    むことを特徴とする請求項14記載の方法。
  20. 【請求項20】 前記認識可能な単語の語彙は、外来の単語を含むことを特
    徴とする請求項14記載の方法。
  21. 【請求項21】 前記認識可能な単語の語彙は、前記複数の言語の固有名詞
    を含むことを特徴とする請求項14記載の方法。
  22. 【請求項22】 前記認識可能な語彙内の単語は、前記データベースから音
    響モデルのユーザーによって調整されたシーケンスで構成された声紋によって記
    述されることを特徴とする請求項14記載の方法。
  23. 【請求項23】 e. 前記声紋を用いる話者識別器で、スピーチ入力の話
    者の同一性を決定するステップ、 をさらに有することを特徴とする請求項22記載の方法。
  24. 【請求項24】 前記認識可能な単語の語彙は、前記複数の言語に存在しな
    い一の言語の単語を含むことを特徴とする請求項14記載の方法。
  25. 【請求項25】 前記音声認識器は、前記複数の言語内の第1の言語のサブ
    ワードユニットを表す音響モデルと前記適切なスピーチパラメーターを比較し、
    ネイティブスピーカーでない人からの入力スピーチが認識されるように、前記複
    数の言語内の第2の言語の少なくとも一つの単語の特定の単語シーケンスとして
    スピーチ入力を認識することを特徴とする請求項14記載の方法。
  26. 【請求項26】 ユーザーに外国語を教えるためのコンピュータープログラ
    ムで符号化されたコンピューターが読取り可能なデジタル記憶媒体であって、 コンピューターにロードされるとき、請求項14記載の言語に依存しない音声
    認識方法に関連して作動することを特徴とする記憶媒体。
JP2000559559A 1998-07-10 1999-07-08 言語に依存しない音声認識 Pending JP2002520664A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/113,589 US6085160A (en) 1998-07-10 1998-07-10 Language independent speech recognition
US09/113,589 1998-07-10
PCT/IB1999/001406 WO2000003386A1 (en) 1998-07-10 1999-07-08 Language independent speech recognition

Publications (1)

Publication Number Publication Date
JP2002520664A true JP2002520664A (ja) 2002-07-09

Family

ID=22350342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000559559A Pending JP2002520664A (ja) 1998-07-10 1999-07-08 言語に依存しない音声認識

Country Status (4)

Country Link
US (1) US6085160A (ja)
EP (1) EP1095371A1 (ja)
JP (1) JP2002520664A (ja)
WO (1) WO2000003386A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008513825A (ja) * 2004-09-23 2008-05-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 話者に依存しない堅牢な音声認識システム
JP2012103554A (ja) * 2010-11-11 2012-05-31 Advanced Telecommunication Research Institute International 音声言語識別装置の学習装置、音声言語の識別装置、及びそれらのためのプログラム
JP2012177815A (ja) * 2011-02-28 2012-09-13 National Institute Of Information & Communication Technology 音響モデル学習装置、および音響モデル学習方法
JP2017513047A (ja) * 2014-03-04 2017-05-25 アマゾン テクノロジーズ インコーポレイテッド 音声認識における発音予測

Families Citing this family (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7043426B2 (en) 1998-04-01 2006-05-09 Cyberpulse, L.L.C. Structured speech recognition
US6757647B1 (en) * 1998-07-30 2004-06-29 International Business Machines Corporation Method for encoding regular expressions in a lexigon
DE19929462A1 (de) * 1999-06-26 2001-02-22 Philips Corp Intellectual Pty Verfahren zum Training eines automatischen Spracherkenners
US6912499B1 (en) * 1999-08-31 2005-06-28 Nortel Networks Limited Method and apparatus for training a multilingual speech model set
IT1310154B1 (it) * 1999-09-02 2002-02-11 Cselt Centro Studi Lab Telecom Procedimento per realizzare un riconoscitore vocale, relativoriconoscitore e procedimento per il riconoscimento della voce
EP1222655A1 (en) * 1999-10-19 2002-07-17 Sony Electronics Inc. Natural language interface control system
US7308462B1 (en) 1999-10-29 2007-12-11 Nortel Networks Limited Methods and systems for building and distributing audio packages
US7376710B1 (en) * 1999-10-29 2008-05-20 Nortel Networks Limited Methods and systems for providing access to stored audio data over a network
US7725307B2 (en) * 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
US9076448B2 (en) 1999-11-12 2015-07-07 Nuance Communications, Inc. Distributed real time speech recognition system
US7050977B1 (en) 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
US7392185B2 (en) 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
JP3520022B2 (ja) * 2000-01-14 2004-04-19 株式会社国際電気通信基礎技術研究所 外国語学習装置、外国語学習方法および媒体
US6738745B1 (en) * 2000-04-07 2004-05-18 International Business Machines Corporation Methods and apparatus for identifying a non-target language in a speech recognition system
US8355912B1 (en) * 2000-05-04 2013-01-15 International Business Machines Corporation Technique for providing continuous speech recognition as an alternate input device to limited processing power devices
KR100387918B1 (ko) * 2000-07-11 2003-06-18 이수성 통역기
US7295979B2 (en) * 2000-09-29 2007-11-13 International Business Machines Corporation Language context dependent data labeling
EP1217610A1 (de) * 2000-11-28 2002-06-26 Siemens Aktiengesellschaft Verfahren und System zur multilingualen Spracherkennung
EP1233406A1 (en) * 2001-02-14 2002-08-21 Sony International (Europe) GmbH Speech recognition adapted for non-native speakers
US7043431B2 (en) * 2001-08-31 2006-05-09 Nokia Corporation Multilingual speech recognition system using text derived recognition models
GB2388738B (en) * 2001-11-03 2004-06-02 Dremedia Ltd Time ordered indexing of audio data
US20060069567A1 (en) * 2001-12-10 2006-03-30 Tischer Steven N Methods, systems, and products for translating text to speech
US7483832B2 (en) * 2001-12-10 2009-01-27 At&T Intellectual Property I, L.P. Method and system for customizing voice translation of text to speech
US20050154588A1 (en) * 2001-12-12 2005-07-14 Janas John J.Iii Speech recognition and control in a process support system
US7013275B2 (en) * 2001-12-28 2006-03-14 Sri International Method and apparatus for providing a dynamic speech-driven control and remote service access system
DE50307074D1 (de) * 2002-01-17 2007-05-31 Siemens Ag Betriebsverfahren eines automatischen spracherkenners zur sprecherunabhängigen spracherkennung von worten aus verschiedenen sprachen und automatischer spracherkenner
US7016849B2 (en) * 2002-03-25 2006-03-21 Sri International Method and apparatus for providing speech-driven routing between spoken language applications
DE10220522B4 (de) * 2002-05-08 2005-11-17 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse
EP1361740A1 (de) * 2002-05-08 2003-11-12 Sap Ag Verfahren und System zur Verarbeitung von Sprachinformationen eines Dialogs
DE10220521B4 (de) * 2002-05-08 2005-11-24 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen
DE10220524B4 (de) * 2002-05-08 2006-08-10 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
DE10220520A1 (de) * 2002-05-08 2003-11-20 Sap Ag Verfahren zur Erkennung von Sprachinformation
EP1363271A1 (de) * 2002-05-08 2003-11-19 Sap Ag Verfahren und System zur Verarbeitung und Speicherung von Sprachinformationen eines Dialogs
US7353173B2 (en) * 2002-07-11 2008-04-01 Sony Corporation System and method for Mandarin Chinese speech recognition using an optimized phone set
US7149688B2 (en) * 2002-11-04 2006-12-12 Speechworks International, Inc. Multi-lingual speech recognition with cross-language context modeling
WO2004047077A1 (en) * 2002-11-15 2004-06-03 Voice Signal Technologies, Inc. Multilingual speech recognition
US20040102973A1 (en) * 2002-11-21 2004-05-27 Lott Christopher B. Process, apparatus, and system for phonetic dictation and instruction
DE10256935A1 (de) * 2002-12-05 2004-07-01 Siemens Ag Auswahl der Benutzersprache an einem rein akustisch gesteuerten Telefon
US8285537B2 (en) * 2003-01-31 2012-10-09 Comverse, Inc. Recognition of proper nouns using native-language pronunciation
US7319958B2 (en) * 2003-02-13 2008-01-15 Motorola, Inc. Polyphone network method and apparatus
TWI224771B (en) * 2003-04-10 2004-12-01 Delta Electronics Inc Speech recognition device and method using di-phone model to realize the mixed-multi-lingual global phoneme
US20040221420A1 (en) * 2003-05-08 2004-11-11 Brian Phillips Apparatus and method for cleaning soiled, surfaces with reduced environmental impact
DE10334400A1 (de) * 2003-07-28 2005-02-24 Siemens Ag Verfahren zur Spracherkennung und Kommunikationsgerät
US7502731B2 (en) * 2003-08-11 2009-03-10 Sony Corporation System and method for performing speech recognition by utilizing a multi-language dictionary
US8229744B2 (en) * 2003-08-26 2012-07-24 Nuance Communications, Inc. Class detection scheme and time mediated averaging of class dependent models
US7289958B2 (en) * 2003-10-07 2007-10-30 Texas Instruments Incorporated Automatic language independent triphone training using a phonetic table
US7689404B2 (en) * 2004-02-24 2010-03-30 Arkady Khasin Method of multilingual speech recognition by reduction to single-language recognizer engine components
US7415411B2 (en) * 2004-03-04 2008-08-19 Telefonaktiebolaget L M Ericsson (Publ) Method and apparatus for generating acoustic models for speaker independent speech recognition of foreign words uttered by non-native speakers
US20070294082A1 (en) * 2004-07-22 2007-12-20 France Telecom Voice Recognition Method and System Adapted to the Characteristics of Non-Native Speakers
US8036893B2 (en) 2004-07-22 2011-10-11 Nuance Communications, Inc. Method and system for identifying and correcting accent-induced speech recognition difficulties
US7640159B2 (en) * 2004-07-22 2009-12-29 Nuance Communications, Inc. System and method of speech recognition for non-native speakers of a language
US7406408B1 (en) * 2004-08-24 2008-07-29 The United States Of America As Represented By The Director, National Security Agency Method of recognizing phones in speech of any language
US7430503B1 (en) * 2004-08-24 2008-09-30 The United States Of America As Represented By The Director, National Security Agency Method of combining corpora to achieve consistency in phonetic labeling
US7917361B2 (en) * 2004-09-17 2011-03-29 Agency For Science, Technology And Research Spoken language identification system and methods for training and operating same
US20060122834A1 (en) * 2004-12-03 2006-06-08 Bennett Ian M Emotion detection device & method for use in distributed systems
US7711358B2 (en) * 2004-12-16 2010-05-04 General Motors Llc Method and system for modifying nametag files for transfer between vehicles
US7596370B2 (en) * 2004-12-16 2009-09-29 General Motors Corporation Management of nametags in a vehicle communications system
ATE385024T1 (de) * 2005-02-21 2008-02-15 Harman Becker Automotive Sys Multilinguale spracherkennung
US8265930B1 (en) * 2005-04-13 2012-09-11 Sprint Communications Company L.P. System and method for recording voice data and converting voice data to a text file
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US20070129945A1 (en) * 2005-12-06 2007-06-07 Ma Changxue C Voice quality control for high quality speech reconstruction
KR100815115B1 (ko) * 2006-03-31 2008-03-20 광주과학기술원 타 언어권 화자 음성에 대한 음성 인식시스템의 성능향상을 위한 발음 특성에 기반한 음향모델 변환 방법 및이를 이용한 장치
US8898052B2 (en) 2006-05-22 2014-11-25 Facebook, Inc. Systems and methods for training statistical speech translation systems from speech utilizing a universal speech recognizer
US7873517B2 (en) * 2006-11-09 2011-01-18 Volkswagen Of America, Inc. Motor vehicle with a speech interface
GB2451907B (en) * 2007-08-17 2010-11-03 Fluency Voice Technology Ltd Device for modifying and improving the behaviour of speech recognition systems
US8244534B2 (en) * 2007-08-20 2012-08-14 Microsoft Corporation HMM-based bilingual (Mandarin-English) TTS techniques
US7472061B1 (en) * 2008-03-31 2008-12-30 International Business Machines Corporation Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciations
EP2107554B1 (en) * 2008-04-01 2011-08-10 Harman Becker Automotive Systems GmbH Generation of multilingual codebooks for speech recognition
US20100198577A1 (en) * 2009-02-03 2010-08-05 Microsoft Corporation State mapping for cross-language speaker adaptation
US8301446B2 (en) * 2009-03-30 2012-10-30 Adacel Systems, Inc. System and method for training an acoustic model with reduced feature space variation
US8707381B2 (en) 2009-09-22 2014-04-22 Caption Colorado L.L.C. Caption and/or metadata synchronization for replay of previously or simultaneously recorded live programs
US20110184723A1 (en) * 2010-01-25 2011-07-28 Microsoft Corporation Phonetic suggestion engine
US9798653B1 (en) * 2010-05-05 2017-10-24 Nuance Communications, Inc. Methods, apparatus and data structure for cross-language speech adaptation
TWI420510B (zh) * 2010-05-28 2013-12-21 Ind Tech Res Inst 可調整記憶體使用空間之語音辨識系統與方法
FI20106048A0 (fi) * 2010-10-12 2010-10-12 Annu Marttila Kieliprofiloinnin menetelmä
US8838449B2 (en) * 2010-12-23 2014-09-16 Microsoft Corporation Word-dependent language model
KR20130022607A (ko) * 2011-08-25 2013-03-07 삼성전자주식회사 입술 이미지를 이용한 음성 인식 장치 및 이의 음성 인식 방법
US9348479B2 (en) 2011-12-08 2016-05-24 Microsoft Technology Licensing, Llc Sentiment aware user interface customization
US9378290B2 (en) 2011-12-20 2016-06-28 Microsoft Technology Licensing, Llc Scenario-adaptive input method editor
US8965763B1 (en) 2012-02-02 2015-02-24 Google Inc. Discriminative language modeling for automatic speech recognition with a weak acoustic model and distributed training
US8543398B1 (en) 2012-02-29 2013-09-24 Google Inc. Training an automatic speech recognition system using compressed word frequencies
US9390085B2 (en) 2012-03-23 2016-07-12 Tata Consultancy Sevices Limited Speech processing system and method for recognizing speech samples from a speaker with an oriyan accent when speaking english
US8374865B1 (en) 2012-04-26 2013-02-12 Google Inc. Sampling training data for an automatic speech recognition system based on a benchmark classification distribution
US9098494B2 (en) 2012-05-10 2015-08-04 Microsoft Technology Licensing, Llc Building multi-language processes from existing single-language processes
US8571859B1 (en) 2012-05-31 2013-10-29 Google Inc. Multi-stage speaker adaptation
US8805684B1 (en) 2012-05-31 2014-08-12 Google Inc. Distributed speaker adaptation
CN104428734A (zh) 2012-06-25 2015-03-18 微软公司 输入法编辑器应用平台
US8880398B1 (en) 2012-07-13 2014-11-04 Google Inc. Localized speech recognition with offload
US8959109B2 (en) 2012-08-06 2015-02-17 Microsoft Corporation Business intelligent in-document suggestions
CN104823183B (zh) 2012-08-30 2018-04-24 微软技术许可有限责任公司 基于特征的候选选择
US9123333B2 (en) 2012-09-12 2015-09-01 Google Inc. Minimum bayesian risk methods for automatic speech recognition
US9892733B2 (en) * 2013-05-20 2018-02-13 Speech Morphing Systems, Inc. Method and apparatus for an exemplary automatic speech recognition system
US10656957B2 (en) 2013-08-09 2020-05-19 Microsoft Technology Licensing, Llc Input method editor providing language assistance
CN104143328B (zh) * 2013-08-15 2015-11-25 腾讯科技(深圳)有限公司 一种关键词检测方法和装置
US9472184B2 (en) * 2013-11-06 2016-10-18 Microsoft Technology Licensing, Llc Cross-language speech recognition
US9747897B2 (en) 2013-12-17 2017-08-29 Google Inc. Identifying substitute pronunciations
US9589564B2 (en) 2014-02-05 2017-03-07 Google Inc. Multiple speech locale-specific hotword classifiers for selection of a speech locale
US9412363B2 (en) 2014-03-03 2016-08-09 Microsoft Technology Licensing, Llc Model based approach for on-screen item selection and disambiguation
US9953631B1 (en) 2015-05-07 2018-04-24 Google Llc Automatic speech recognition techniques for multiple languages
US9678954B1 (en) * 2015-10-29 2017-06-13 Google Inc. Techniques for providing lexicon data for translation of a single word speech input
US9886958B2 (en) 2015-12-11 2018-02-06 Microsoft Technology Licensing, Llc Language and domain independent model based approach for on-screen item selection
US9697824B1 (en) 2015-12-30 2017-07-04 Thunder Power New Energy Vehicle Development Company Limited Voice control system with dialect recognition
US9437191B1 (en) * 2015-12-30 2016-09-06 Thunder Power Hong Kong Ltd. Voice control system with dialect recognition
CN106205634A (zh) * 2016-07-14 2016-12-07 东北电力大学 一种大学英语口语学习与测试系统及其方法
US10468019B1 (en) * 2017-10-27 2019-11-05 Kadho, Inc. System and method for automatic speech recognition using selection of speech models based on input characteristics
KR102452644B1 (ko) * 2017-10-31 2022-10-11 삼성전자주식회사 전자 장치, 음성 인식 방법 및 기록 매체
WO2020053862A1 (en) * 2018-09-13 2020-03-19 Ichannel.Io Ltd. A system and computerized method for subtitles synchronization of audiovisual content using the human voice detection for synchronization
US11227579B2 (en) * 2019-08-08 2022-01-18 International Business Machines Corporation Data augmentation by frame insertion for speech data
US11270123B2 (en) * 2019-10-22 2022-03-08 Palo Alto Research Center Incorporated System and method for generating localized contextual video annotation
US11032620B1 (en) * 2020-02-14 2021-06-08 Sling Media Pvt Ltd Methods, systems, and apparatuses to respond to voice requests to play desired video clips in streamed media based on matched close caption and sub-title text
CN111445898B (zh) * 2020-03-17 2022-05-17 科大讯飞股份有限公司 语种识别方法、装置、电子设备和存储介质
US11568858B2 (en) * 2020-10-17 2023-01-31 International Business Machines Corporation Transliteration based data augmentation for training multilingual ASR acoustic models in low resource settings
TWI759003B (zh) * 2020-12-10 2022-03-21 國立成功大學 語音辨識模型的訓練方法
US11683558B2 (en) * 2021-06-29 2023-06-20 The Nielsen Company (Us), Llc Methods and apparatus to determine the speed-up of media programs using speech recognition
US11736773B2 (en) * 2021-10-15 2023-08-22 Rovi Guides, Inc. Interactive pronunciation learning system
US11902690B2 (en) * 2021-10-27 2024-02-13 Microsoft Technology Licensing, Llc Machine learning driven teleprompter
US11785278B1 (en) * 2022-03-18 2023-10-10 Comcast Cable Communications, Llc Methods and systems for synchronization of closed captions with content output

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302351A (ja) * 1994-05-09 1995-11-14 Canon Inc 画像・音声応答装置及び画像・音声応答方法
WO1998011534A1 (de) * 1996-09-10 1998-03-19 Siemens Aktiengesellschaft Verfahren zur anpassung eines hidden-markov-lautmodelles in einem spracherkennungssystem

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5477451A (en) * 1991-07-25 1995-12-19 International Business Machines Corp. Method and system for natural language translation
US5717743A (en) * 1992-12-16 1998-02-10 Texas Instruments Incorporated Transparent telephone access system using voice authorization
JPH09500223A (ja) * 1993-07-13 1997-01-07 ボルドー、テオドール・オースチン 多言語音声認識システム
US5540589A (en) * 1994-04-11 1996-07-30 Mitsubishi Electric Information Technology Center Audio interactive tutor
US5697789A (en) * 1994-11-22 1997-12-16 Softrade International, Inc. Method and system for aiding foreign language instruction
JPH0916602A (ja) * 1995-06-27 1997-01-17 Sony Corp 翻訳装置および翻訳方法
US5963903A (en) * 1996-06-28 1999-10-05 Microsoft Corporation Method and system for dynamically adjusted training for speech recognition
DE19634138A1 (de) * 1996-08-23 1998-02-26 Siemens Ag Handgerät zum interaktiven Lernen von Sprachen
US5915001A (en) * 1996-11-14 1999-06-22 Vois Corporation System and method for providing and using universally accessible voice and speech data files

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07302351A (ja) * 1994-05-09 1995-11-14 Canon Inc 画像・音声応答装置及び画像・音声応答方法
WO1998011534A1 (de) * 1996-09-10 1998-03-19 Siemens Aktiengesellschaft Verfahren zur anpassung eines hidden-markov-lautmodelles in einem spracherkennungssystem
JP2001503154A (ja) * 1996-09-10 2001-03-06 シーメンス アクチエンゲゼルシヤフト 音声認識システムにおける隠れマルコフ音声モデルの適合方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A.CONSTANTINESCU, ET AL.: ""On Cross-Language Experiments and Data-Driven Units for ALISP(Automatic Language Independent Speech", PROCEEDINGS OF AUTOMATIC SPEECH RECOGNITION AND UNDERSTANDING, 1997, JPN6009056502, December 1997 (1997-12-01), pages 606 - 613, XP002121360, ISSN: 0001453346 *
T.SCHULTZ, ET AL.: ""FAST BOOTSTRAPPING OF LVCSR SYSTEMS WITH MULTILINGUAL PHONEME SETS"", PROCEEDINGS OF THE 5TH EUROPEAN CONFERENCE ON SPEECH COMMUNICATION AND TECHNOLOGY(EUROSPEECH '97), vol. 1, JPN7009004745, September 1997 (1997-09-01), pages 371 - 374, ISSN: 0001453347 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008513825A (ja) * 2004-09-23 2008-05-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 話者に依存しない堅牢な音声認識システム
JP4943335B2 (ja) * 2004-09-23 2012-05-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 話者に依存しない堅牢な音声認識システム
JP2012103554A (ja) * 2010-11-11 2012-05-31 Advanced Telecommunication Research Institute International 音声言語識別装置の学習装置、音声言語の識別装置、及びそれらのためのプログラム
JP2012177815A (ja) * 2011-02-28 2012-09-13 National Institute Of Information & Communication Technology 音響モデル学習装置、および音響モデル学習方法
JP2017513047A (ja) * 2014-03-04 2017-05-25 アマゾン テクノロジーズ インコーポレイテッド 音声認識における発音予測
US10339920B2 (en) 2014-03-04 2019-07-02 Amazon Technologies, Inc. Predicting pronunciation in speech recognition

Also Published As

Publication number Publication date
EP1095371A1 (en) 2001-05-02
WO2000003386A1 (en) 2000-01-20
US6085160A (en) 2000-07-04

Similar Documents

Publication Publication Date Title
US6085160A (en) Language independent speech recognition
CN111566655B (zh) 多种语言文本语音合成方法
US8275621B2 (en) Determining text to speech pronunciation based on an utterance from a user
US7415411B2 (en) Method and apparatus for generating acoustic models for speaker independent speech recognition of foreign words uttered by non-native speakers
US7937262B2 (en) Method, apparatus, and computer program product for machine translation
US8065144B1 (en) Multilingual speech recognition
JP4481035B2 (ja) 単語間音素情報を利用した連続音声認識方法および装置
US20060229870A1 (en) Using a spoken utterance for disambiguation of spelling inputs into a speech recognition system
US20100057435A1 (en) System and method for speech-to-speech translation
US20070239455A1 (en) Method and system for managing pronunciation dictionaries in a speech application
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
Goronzy Robust adaptation to non-native accents in automatic speech recognition
JP2002304190A (ja) 発音変化形生成方法及び音声認識方法
JPH0922297A (ja) 音声‐テキスト変換のための方法および装置
US20070294082A1 (en) Voice Recognition Method and System Adapted to the Characteristics of Non-Native Speakers
Huang et al. Dialect/accent classification using unrestricted audio
JP2000029492A (ja) 音声翻訳装置、音声翻訳方法、音声認識装置
JP3776391B2 (ja) 多言語音声認識方法、装置、プログラム
JP2006084966A (ja) 発話音声の自動評定装置およびコンピュータプログラム
KR100484493B1 (ko) 다중 발음사전을 이용한 대화체 연속 음성인식 시스템 및방법
JP4163207B2 (ja) 多言語話者適応方法、装置、プログラム
JP2001188556A (ja) 音声認識方法及び装置
Ito Spoken dialogue system development without speech recognition towards language revitalization
Wong et al. Multilingual phone clustering for recognition of spontaneous indonesian speech utilising pronunciation modelling techniques.
KR100445907B1 (ko) 음성언어 식별 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100204

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100511