JP4638970B2 - 音声認識装置の適応化方法 - Google Patents

音声認識装置の適応化方法 Download PDF

Info

Publication number
JP4638970B2
JP4638970B2 JP2000014227A JP2000014227A JP4638970B2 JP 4638970 B2 JP4638970 B2 JP 4638970B2 JP 2000014227 A JP2000014227 A JP 2000014227A JP 2000014227 A JP2000014227 A JP 2000014227A JP 4638970 B2 JP4638970 B2 JP 4638970B2
Authority
JP
Japan
Prior art keywords
speech recognition
words
word
adaptation
recognition apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000014227A
Other languages
English (en)
Other versions
JP2000214879A (ja
Inventor
ゴロンジー シルケ
コンペ ラルフ
ブフナー ペーター
Original Assignee
ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミット ベシュレンクテル ハフツング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミット ベシュレンクテル ハフツング filed Critical ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミット ベシュレンクテル ハフツング
Publication of JP2000214879A publication Critical patent/JP2000214879A/ja
Application granted granted Critical
Publication of JP4638970B2 publication Critical patent/JP4638970B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、音声認識装置の適応化方法に関し、特に音声認識装置におけるモデルに対する不適切な単語の適応化を回避する音声認識装置の適応化方法に関する。
【0002】
【従来の技術】
従来の音声認識装置は、任意の音声セグメント(speech segment)の音響特性(acoustic properties)をモデル化した統計的な分布(statistical distribution)を利用している。これらの音響特性は、特徴ベクトル(feature vectors)にエンコードされる。例えば、各音素(phoneme)に対して1つのガウス分布を得ることができる。これらの分布は、それぞれ1つの状態と対応付けられる。(確率的な)状態遷移ネットワーク、例えば隠れマルコフモデル(Hidden MarkovModel:以下、HMMsという。)は、状態の連続及び特徴ベクトルの連続の確率を定義する。状態を進める毎に、音声信号のフレーム、例えば音声信号の10ms分をカバーする1つの特徴ベクトルが生成される。
【0003】
このような音声認識装置の確率パラメータは、特定話者(Speaker Dependent:以下、SDという。)方式では単一話者が発した多量の音声データを用い、又は不特定話者(Speaker Independent:以下、SIという。)方式では多くの話者が発した多量の音声データを用いて学習される。
【0004】
話者適応化手法(Speaker Adaptation:以下、SAという。)は、不特定話者(SI)方式の認識率を高める目的で広く利用されている。従来の特定話者(SD)方式は、不特定話者(SI)方式に比べてはるかに高い認識率が得られる。しかし、多くの場合、単一話者から音声認識装置が学習するのに十分なデータを得ることは容易でない。民生用機器においては、十分なデータを得ることは更に困難である。この認識率の差を解決するために、話者適応化アルゴリズムが広く用いられている。この話者適応化アルゴリズムを用いることによって、特定話者(SD)方式における特定話者データと比べると少量の特定話者データを使用するだけで、不特定話者(SI)方式において、特定話者(SD)方式に近い認識率を得ることができる。このような話者適応化手法では、最初は話者不特定モデルを用い、その後、より話者の音響特性に一致するように適応化が行われる。
【0005】
適応化は、一般的には、教示(supervised)によって行われる。すなわち、音声認識装置は、発せられた単語(words)が分かると、それらを認識する。これによって、セグメント単位の分布(segment-specific distributions)の時間的な配列(time alignment)が得られる。適応化は、実際の特徴ベクトルと対応する分布のパラメータの違い(mismatch)を基礎として行われる。教示による適応化(supervised adaptation)では、新しい話者が音声認識装置を実際に使用する前に、新しい話者毎の適応授業(セッション)が必要とされる。
【0006】
話者適応化の技術では、一般的に、隠れマルコフモデルのパラメータを、新しい話者の音響特性に適合するように変更する。この処理は、一般的には、バッチ処理(batch)又はオフライン処理(off-line)で行われる。すなわち、話者は、音声認識装置を用いて認識を行わせる前に、所定の文章(text)を読み上げる必要があり、読み上げられた文章は、適応化を行うために処理される。そして、この処理が終了した後、話者は、この音声認識装置を認識のために用いることができる。文章が音声認識装置にとって既知のものであり、音声信号を文章に対応するモデルに強制配列して、この強制配列が認識に用いられるので、このモードは教示適応(supervised adaptation)と呼ばれる。
【0007】
しかしながら、殆どの種類の民生用機器に対しては、非教示又はオンライン方式(unsupervised or on-line method)の方がより適している。この場合、適応化は、音声認識装置が使用されている最中に行われる。認識された発話(utterance)は、適応化のために用いられ、また、変更されたモデルは、次の発話の認識のために用いられる。この場合、読み上げられる文章は、音声認識装置には未知のものであるので、認識された単語が代わりに用いられる。
【0008】
特定の話者の発話の認識をより向上させるために、1つの話者適応モデルのセットに対する適応化が繰り返し行われる。話者適応化の方法が幾つかあり、例えば帰納的最大確率(maximum a posteriori probability:MAP)適応化や、最尤線形回帰(maximum likelihood linear regression:MLLR)適応化がある。
【0009】
【発明が解決しようとする課題】
音声認識装置には、辞書に互いに類似音を持つ単語が多数存在するという問題がある。すなわち、これらの互いに類似音を持つ単語間での識別が困難で、これはしばしば誤認識の原因となる。音声認識装置が特定の話者に対するモデルを改善するために、非教示による話者適応化を行う場合、こういった誤認識によって、不適切な適応化が行われ、認識率が低下してしまう。その結果、その特定の話者に対するモデルは、不適切なモデルに変更されてしまう。
【0010】
従来の音声認識装置では、正しい文章の構成を定義する文法及び言語モデルを用いて、互いに類似音を持つ単語間での識別の際に問題となる単語間の音の紛らわしさの処理が試みられ、成功する場合もある。
【0011】
別の方法として、ヨーロッパ特許出願公開番号0763812A1号には、ある単語の(他の単語との)紛らわしさの度合いを低くするための確認方法が開示されている。これは数学的アプローチで、尤度尺度が、最もよく認識されたn個の単語列(word strings)を検証するために用いられる。検証処理の解、すなわちロス関数(loss function)の微分(derivation)は、音声認識装置を使用するに先立って行われるHMMs学習のための最適化規準として用いられる。この場合、全ての発話は学習のために用いられ、この方法は、紛らわしい単語の尤度(likelihood)の差を最大にするために用いられる。
【0012】
ところが、教示による音声認識装置、特に非教示による音声認識装置において誤認識は起こり、不適切なHMMsが適応化に用いられてしまう。このようなことが繰り返し起こると、認識性能は大幅に低下する。
【0013】
本発明は、上述した実情に鑑みてなされたものであり、本発明の目的は、音声認識装置におけるモデルに対する不適切な単語の適応化を回避できる音声認識装置の適応化方法を提供することである。
【0014】
【課題を解決するための手段】
誤認識された単語が紛らわしい、例えば他の単語との紛らわしさの度合いが高い場合、誤認識された単語に基づいて適応化が行われることを回避することによって、上述した問題点は解決できる。
【0015】
本発明に係る音声認識装置の適応化方法では、音声認識装置の単語登録辞書に登録された単語に他の単語との紛らわしさの情報を付加しておき、音声認識装置が紛らわしいとしてマークが付けられた単語を認識する場合には、ユーザにその認識結果の適否を確認させることにより認識結果を二重に確かめる。音声認識装置が確実に単語を正しく認識する時だけ、その単語は適応化に用いられる。一方、紛らわしいとしてマークが付けられていない単語に関しては、音声認識装置は、他の検証方法を用いてその単語の認識結果を検証し、その後、検証された単語は適応化に用いられる。または、他の検証方法を用いずに、そのままその紛らわしいとしてマークが付けられていない単語を適応化に用いてもよい。
【0016】
認識処理の前において、辞書においてどの単語が他の単語と紛らわしいかを決定する。例えばこれを、単語の総音素数と他の単語の音素とは異なる音素の数とを比較及び演算処理することによって行ってもよい。または、辞書における全単語を表すテンプレート音声信号(template speech signal)のセットを使って各単語間の距離を算出して行ってもよい。そのようなテンプレート音声信号のセットは隠れマルコフモデルが望ましいが、別のものでもよい。
【0017】
また、辞書に含まれるある単語と他の単語の紛らわしさの度合いを等級を付けて区別してもよい。その紛らわしさの度合いの等級を音素列(phoneme strings)間及び/又はHMMs間の類似度を測定するという既知の類似測定法を用いて、手動又は自動的に決定してもよい。この場合、紛らわしさの度合いの高い単語だけでなく、ともかく紛らわしい単語の認識結果も同様にユーザによって確認される必要がある。尚、それは別の技法で検証されてもよい。
【0018】
辞書における各単語には、その単語が紛らわしいものなのかに関する情報と、どの単語と紛らわしいのかに関する情報と、その紛らわしさの度合いに関する情報とが付加されている。認識の最中に、予め紛らわしいとしてマークが付けられた単語が、例えば、紛らわしさの度合いが高いと区別された単語が認識される場合、ユーザに対し認識結果の適否を確認し、それが誤認識の場合は、ユーザに要求して発話を繰り返させる。あるいは、ユーザに誤認識された単語を綴らせてもよい。ユーザ・インターフェース(user interface)としてのキーボードがある場合は、ユーザにその単語を入力させてもよいし、この訂正には他の入力方法を用いてもよい。訂正された後は、音声認識装置は、はじめに誤認識された単語の音声信号に対応する適切な単語を正しく認識することができ、この正しく認識された単語は適応化に用いられる。単語が紛らわしいものでない場合は、ユーザに対し確認する必要はないが、認識結果の信頼度を別の方法により検証してもよい。尚、音声認識装置における適応化は、例えば話者不特定隠れマルコフモデルの話者適応マルコフモデルに対する適応化であり、その適応化の方法には、帰納的最大確率(maximum a posteriori probability:MAP)適応化や、最尤線形回帰(maximum likelihood linear regression:MLLR)適応化がある。
【0019】
本発明に係る音声認識装置の適応化方法により、紛らわしさの高い単語の識別が容易になり、紛らわしいとされる単語の誤認識を減らすことができるので、常に正しいモデルが適応化に用いられる。
【0020】
【発明の実施の形態】
以下、本発明に係る音声認識装置の適応化方法について、図面を参照しながら説明する。
【0021】
図1は、認識処理の前において、辞書における単語間の紛らわしさを決定する方法を示す。辞書においてどの単語が他の単語との紛らわしさが高いのかがここで決定される。
【0022】
ステップS0において処理が開始し、ステップS1において、他の単語を処理するかどうかが確認される。追加処理する単語がない場合は(NO)、ステップS6へ進み処理は終わる。追加処理する単語がある場合は(YES)、ステップS2へ進み、そこで辞書に新しい単語が追加される。その後ステップS3において、既に登録されている全単語とこの新しい単語との紛らわしさが算出される。
【0023】
上述したように、紛らわしさを算出する方法が幾つかあり、またその解、すなわち紛らわしさの度合いを分類する方法も幾つかある。例えば、単語は、その単語の総音素数と他の単語の音素とは異なる音素の数とを比較及び演算処理することによって紛らわしいとしてマークが付けられてもよい。あるいは、辞書における各単語間の距離をそれら全単語を表すテンプレート音声信号のセットを用いて算出することよって、紛らわしいとしてマークが付けられてもよい。尚、このテンプレート音声信号のセットは隠れマルコフモデルであるのが望ましい。
【0024】
ステップS4において、この新しい単語と他の単語との紛らわしさの度合いが高いかどうかが決定される。尚、本発明において、単語と他の単語との紛らわしさの度合いが高いかどうかを判断する方法は、これに限らない。例えば、ステップS4において、単語がともかく他の単語と紛らわしいのかどうかが確かめられ、紛らわしさの度合いは、次のステップで判断されてもよい。しかし、この実施例では紛らわしさの度合いは、ステップS4において既に分類されている。
【0025】
新しい単語と他の単語との紛らわしさの度合いが高い場合には(YES)、ステップS5において、この新しい単語は紛らわしさの度合いが高いと区別される。その後、ステップS1の処理へ戻り、別の単語の処理が必要かどうかが確かめられる。ステップS4において、単語の紛らわしさの度合いが高いと見なされない場合には(NO)、直接ステップS1の処理へ戻る。
【0026】
図2は、本発明を適用した音声認識装置の適応化方法を示す無限ループ(endless loop)である。
【0027】
ステップS9において、ユーザが音声認識装置に発話した後、ステップS10において、この発話が認識される。ステップS11において、認識された発話の単語と他の単語との紛らわしさの度合いが高いかどうかが確かめられる。
【0028】
ステップS11において、認識された単語が辞書に登録済みの単語のうちの少なくとも1単語との紛らわしさの度合いが高いと見なされる場合には(YES)、ステップS12において、ユーザに認識結果の適否を確認させる。認識結果が不適切である時には、ユーザに要求して誤認識した単語を繰り返し発話させる。あるいはユーザに要求して誤認識した単語を綴らせる。ユーザ・インターフェース(user interface)としてのキーボードがある場合は、ユーザに要求して誤認識した単語を入力させる。ユーザの確認後、ステップS13においてモデルに対するこの単語の適応化が行われ、次の発話がステップS9において受信される。
【0029】
ステップS11において、認識された単語と他の単語との紛らわしさの度合いが高いと見なされない場合には(NO)、ステップS14において、単語の認識結果を検証するための別の検証方法を適用してもよい。その後、ステップS15において、単語の認識結果の適否が確かめられる。ステップS15において、認識結果が適切である場合には(YES)、ステップS13において適応化が行われ、その後ステップS9において、次の発話が受信される。誤認識の場合には(NO)、ステップS13において適応化は行われずに、次の発話は直接ステップS9において受信される。尚、音声認識装置における適応化は、例えば話者不特定隠れマルコフモデルの話者適応マルコフモデルに対する適応化であり、その適応化の方法には、帰納的最大確率(maximum a posteriori probability:MAP)適応化や、最尤線形回帰(maximum likelihood linear regression:MLLR)適応化がある。
【0030】
【発明の効果】
本発明に係る音声認識装置の適応化方法では、認識段階に先立って、音声認識装置の辞書において単語間の紛らわしさが決定され、音声認識装置が、紛らわしいとしてマークが付けられた単語を認識する場合は、認識処理の際に認識結果の適否をユーザに要求して確認させ、適切であると確認された単語を用いて適応化が行われる。したがって、紛らわしさの高い単語の識別が容易になり、紛らわしいとされる単語の誤認識が減るので、常に正しいモデルを適応化に用いることができる。
【図面の簡単な説明】
【図1】本発明を適用した単語間の紛らわしさの決定方法を説明するためのフローチャートである。
【図2】本発明を適用した音声認識装置の適応化方法を説明するためのフローチャートである。
【符号の説明】
S9 発話の取り込み、S10 発話認識、S11 紛らわしさの度合い判定、S12 ユーザによる確認、S13 適応化、S14 別の検証方法適用、S15 単語の認識結果検証

Claims (11)

  1. 音声認識装置の適応化を実行する音声認識装置の適応化方法において、
    認識処理の前に、上記音声認識装置の辞書内の他の単語と紛らわしい単語にマークを付けるステップと、
    上記認識処理において、認識された単語が、上記紛らわしいとしてマークが付けられた単語の一つである場合には、該認識された単語を確認することをユーザに要求するステップと、
    上記紛らわしいとしてマークが付けられ、適切であると確認された単語によって、上記音声認識装置の適応化を行うステップと
    紛らわしいとしてマークが付けられていない認識された単語を、ユーザの確認とは別の方法により検証するステップとを有し、
    適切でないと単語が確認された場合、該誤認識した単語を繰り返し発話させるようにユーザに要求することを特徴とする音声認識装置の適応化方法。
  2. 上記別の方法により検証された単語によって、上記音声認識装置の適応化を行うステップを有する請求項1記載の音声認識装置の適応化方法。
  3. 紛らわしいとしてマークが付けられていない単語によって、上記音声認識装置の適応化を行うステップを有する請求項1記載の音声認識装置の適応化方法。
  4. 上記音声認識装置の辞書内の単語は、該単語の総音素数と他の単語の音素とは異なる音素の数とを比較及び計算することによって、紛らわしいとしてマークが付けられることを特徴とする請求項1乃至3のいずれか1項に記載の音声認識装置の適応化方法。
  5. 上記音声認識装置の辞書内の単語は、該辞書における各単語間の距離を、全単語を表すテンプレート音声信号のセットを用いて計算することによって、紛らわしいとしてマークが付けられることを特徴とする請求項1乃至3のいずれか1項に記載の音声認識装置の適応化方法。
  6. 上記テンプレート音声信号のセットは、隠れマルコフモデルであることを特徴とする請求項5記載の音声認識装置の適応化方法。
  7. 上記誤認識した単語は、ユーザにより繰り返された発話に基づいて正しく認識された後に、上記音声認識装置の適応化のために用いられることを特徴とする請求項1乃至6のいずれか1項に記載の音声認識装置の適応化方法。
  8. 上記音声認識装置の適応化は、話者不特定隠れマルコフモデルの話者適応マルコフモデルに対する適応化であることを特徴とする請求項1乃至7のいずれか1項に記載の音声認識装置の適応化方法。
  9. 当該音声認識装置の適応化方法は、帰納的最大確率(maximum a posteriori probability:MAP)適応化又は最尤線形回帰(maximum likelihood linear regression:MLLR)適応化であることを特徴とする請求項8記載の音声認識装置の適応化方法。
  10. 音声認識装置の適応化を実行する音声認識装置の適応化方法において、
    認識処理の前に、上記音声認識装置の辞書内の他の単語と紛らわしい単語にマークを付けるステップと、
    上記認識処理において、認識された単語が、上記紛らわしいとしてマークが付けられた単語の一つである場合には、該認識された単語を確認することをユーザに要求するステップと、
    上記紛らわしいとしてマークが付けられ、適切であると確認された単語によって、上記音声認識装置の適応化を行うステップと
    紛らわしいとしてマークが付けられていない認識された単語を、ユーザの確認とは別の方法により検証するステップとを有し、
    適切でないと単語が確認された場合、該誤認識した単語を綴らせるようにユーザに要求することを特徴する音声認識装置の適応化方法。
  11. 音声認識装置の適応化を実行する音声認識装置の適応化方法において、
    認識処理の前に、上記音声認識装置の辞書内の他の単語と紛らわしい単語にマークを付けるステップと、
    上記認識処理において、認識された単語が、上記紛らわしいとしてマークが付けられた単語の一つである場合には、該認識された単語を確認することをユーザに要求するステップと、
    上記紛らわしいとしてマークが付けられ、適切であると確認された単語によって、上記音声認識装置の適応化を行うステップと
    紛らわしいとしてマークが付けられていない認識された単語を、ユーザの確認とは別の方法により検証するステップとを有し、
    適切でないと単語が確認された場合、該誤認識した単語を入力させるようにユーザに要求することを特徴する音声認識装置の適応化方法。
JP2000014227A 1999-01-20 2000-01-20 音声認識装置の適応化方法 Expired - Fee Related JP4638970B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP99100952.3 1999-01-20
EP19990100952 EP1022724B8 (en) 1999-01-20 1999-01-20 Speaker adaptation for confusable words

Publications (2)

Publication Number Publication Date
JP2000214879A JP2000214879A (ja) 2000-08-04
JP4638970B2 true JP4638970B2 (ja) 2011-02-23

Family

ID=8237375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000014227A Expired - Fee Related JP4638970B2 (ja) 1999-01-20 2000-01-20 音声認識装置の適応化方法

Country Status (3)

Country Link
EP (1) EP1022724B8 (ja)
JP (1) JP4638970B2 (ja)
DE (1) DE69939151D1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1205906B1 (en) 2000-11-07 2003-05-07 Telefonaktiebolaget L M Ericsson (Publ) Reference templates adaptation for speech recognition
DE10122828A1 (de) * 2001-05-11 2002-11-14 Philips Corp Intellectual Pty Verfahren zum Training oder zur Adaption eines Spracherkenners
US20020178004A1 (en) * 2001-05-23 2002-11-28 Chienchung Chang Method and apparatus for voice recognition
JP4497834B2 (ja) * 2003-04-28 2010-07-07 パイオニア株式会社 音声認識装置及び音声認識方法並びに音声認識用プログラム及び情報記録媒体
JP5041934B2 (ja) * 2006-09-13 2012-10-03 本田技研工業株式会社 ロボット
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6126133A (ja) * 1984-07-17 1986-02-05 Nippon Signal Co Ltd:The 音声認識入力装置
JPH0481898A (ja) * 1990-07-25 1992-03-16 Nec Corp 音声認識装置
JPH10268072A (ja) * 1997-03-27 1998-10-09 Seiko Kurotsuku Kk 時 計

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2966852B2 (ja) * 1989-01-24 1999-10-25 キヤノン株式会社 音声処理方法及び装置
JP2502880B2 (ja) * 1992-03-13 1996-05-29 松下電器産業株式会社 音声認識方法
JPH0713591A (ja) * 1993-06-22 1995-01-17 Hitachi Ltd 音声認識装置および音声認識方法
US5488652A (en) * 1994-04-14 1996-01-30 Northern Telecom Limited Method and apparatus for training speech recognition algorithms for directory assistance applications
US5737723A (en) * 1994-08-29 1998-04-07 Lucent Technologies Inc. Confusable word detection in speech recognition
JPH09326856A (ja) * 1996-06-03 1997-12-16 Mitsubishi Electric Corp 音声認識応答装置
US5999896A (en) * 1996-06-25 1999-12-07 Microsoft Corporation Method and system for identifying and resolving commonly confused words in a natural language parser

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6126133A (ja) * 1984-07-17 1986-02-05 Nippon Signal Co Ltd:The 音声認識入力装置
JPH0481898A (ja) * 1990-07-25 1992-03-16 Nec Corp 音声認識装置
JPH10268072A (ja) * 1997-03-27 1998-10-09 Seiko Kurotsuku Kk 時 計

Also Published As

Publication number Publication date
EP1022724A1 (en) 2000-07-26
EP1022724B1 (en) 2008-07-23
DE69939151D1 (de) 2008-09-04
EP1022724B8 (en) 2008-10-15
JP2000214879A (ja) 2000-08-04

Similar Documents

Publication Publication Date Title
EP1226574B1 (en) Method and apparatus for discriminative training of acoustic models of a speech recognition system
US7529665B2 (en) Two stage utterance verification device and method thereof in speech recognition system
JP4301102B2 (ja) 音声処理装置および音声処理方法、プログラム、並びに記録媒体
US6799162B1 (en) Semi-supervised speaker adaptation
EP1557822B1 (en) Automatic speech recognition adaptation using user corrections
US20090119103A1 (en) Speaker recognition system
JP3685972B2 (ja) 音声認識装置および音声モデル適応方法
US20110196678A1 (en) Speech recognition apparatus and speech recognition method
EP2048655A1 (en) Context sensitive multi-stage speech recognition
JPH09127972A (ja) 連結数字の認識のための発声識別立証
US6895376B2 (en) Eigenvoice re-estimation technique of acoustic models for speech recognition, speaker identification and speaker verification
Li et al. Verbal information verification
US20120078630A1 (en) Utterance Verification and Pronunciation Scoring by Lattice Transduction
US11450320B2 (en) Dialogue system, dialogue processing method and electronic apparatus
EP1734509A1 (en) Method and system for speech recognition
JPWO2008111190A1 (ja) 音響モデル登録装置、話者認識装置、音響モデル登録方法及び音響モデル登録処理プログラム
US8874438B2 (en) User and vocabulary-adaptive determination of confidence and rejecting thresholds
JP4638970B2 (ja) 音声認識装置の適応化方法
Li et al. Speaker verification using verbal information verification for automatic enrolment
KR100609521B1 (ko) 음성 인식 시스템의 발화 검증 방법
KR100940641B1 (ko) 음소레벨 로그우도 비율 분포와 음소 지속시간 분포에 의한단어음색 모델 기반 발화검증 시스템 및 방법
US20030187645A1 (en) Automatic detection of change in speaker in speaker adaptive speech recognition system
JP4391179B2 (ja) 話者認識システム及び方法
KR100673834B1 (ko) 문맥 요구형 화자 독립 인증 시스템 및 방법
JPH11249688A (ja) 音声認識装置およびその方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101129

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees