JP2001188558A - 音声認識装置、方法、コンピュータ・システム及び記憶媒体 - Google Patents

音声認識装置、方法、コンピュータ・システム及び記憶媒体

Info

Publication number
JP2001188558A
JP2001188558A JP37041399A JP37041399A JP2001188558A JP 2001188558 A JP2001188558 A JP 2001188558A JP 37041399 A JP37041399 A JP 37041399A JP 37041399 A JP37041399 A JP 37041399A JP 2001188558 A JP2001188558 A JP 2001188558A
Authority
JP
Japan
Prior art keywords
word
redundant
normal
probability
words
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP37041399A
Other languages
English (en)
Other versions
JP3426176B2 (ja
Inventor
Nobuyasu Ito
信泰 伊東
Masafumi Nishimura
雅史 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP37041399A priority Critical patent/JP3426176B2/ja
Priority to CNB00135969XA priority patent/CN1230764C/zh
Priority to US09/748,542 priority patent/US6917910B2/en
Publication of JP2001188558A publication Critical patent/JP2001188558A/ja
Application granted granted Critical
Publication of JP3426176B2 publication Critical patent/JP3426176B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】従来より認識率の高い音声認識装置及び方法を
提供すること。 【解決手段】本願発明では、単語を冗長語とそれ以外の
通常の単語にわけ、予測される単語、条件となる先行単
語いずれにおいても、この2つを区別して予測を行うこ
とにより冗長語周辺部における単語予測の精度を向上さ
せる。そのために、アナログ音声入力信号をデジタル信
号に変換処理を行う音響処理手段と、音の特徴を学習し
た音響モデルを記憶した記憶手段と、予め冗長語と冗長
語以外の通常の単語(通常単語)とを含む文章に基づい
て学習した第1の言語モデルと、冗長語を無視して通常
単語のみの文章に基づいて学習した第2の言語モデル
と、の両方の言語モデルを有する辞書を記憶した記憶手
段と、前記デジタル信号について前記音響モデル及び前
記辞書を用いて確率を計算して最も確率の高い語を入力
された音声として認識する手段と、を有する音声認識装
置を提供する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声認識装置およびそ
の方法に関するものであり、より具体的には、人の自然
な発話を認識して文章化し、冗長語(disfluency)と呼
ばれる無意味な単語を自動的に除去してテキストデータ
を作成する音声認識装置およびその方法に関するもので
ある。
【0002】
【従来の技術】音響モデルと言語モデルを用いて音声認
識を行う統計的方法は知られており、例えば、「A Maxi
mum Likelihood Approach to Continuous Speech Recog
nition(L.R. Bahl他,IEEE Trans. Vol. PAMI-5, No.
2, 1983, March)」や「単語を認識単位とした日本語の
大語彙連続音認識(西村他、情報処理学会論文誌、第4
0巻、第4号、1999年4月)」がそのような方法に
ついて記述している。その概略について説明すると、生
成された文章Wが発話され、それが音響処理部において
音響処理されて得られた信号からその特徴Xが抽出さ
れ、そのX及びWを用いて、以下の式
【数1】 に従って最適と考えられる認識結果W’が出力され、文
章が構成される。つまり、単語列Wが発声されたときの
当該特徴量(X)の出現確率P(X|W)とW自身の出
現確率(P(W))の積が最大(argmax)となる
単語列W’が認識結果として選択される。
【0003】ここで前者の確率P(X|W)を求めるた
めに音響モデルが用いられ、その確率の高い単語が認識
の候補として選択される。一方、後者の確率P(W)を
近似するためによく用いられるものが言語モデルであ
り、具体的にはN−gramモデルである。これはN個
の連続した単語組の出現確率から文全体、すなわち単語
列Wの出現確率を近似する方法であり、次式のように定
式化される。
【数2】
【0004】かかる式では、次の単語w[n]の出現確率が
直前のN−1個の単語にのみ影響を受けるという仮定を
行う。Nの値はさまざまなものが考えられるが、その有
効性と必要とする学習データのバランスからN=3がよ
く用いられ、本式もN=3の場合を記述している。以
下、n個の語からなる文章Wのn番目の語をw[n]のよう
に表現することとすると、ここでは当該N−1個(つま
り2個)という条件の元での単語w[n]の出現確率、つま
りP(w[n]|w[n-2]w[n-1])の積として単語列Wの出現確率
が計算される。ここで、かかる式において、|の左(W
[n])は認識の対象となる単語を示し、|の右(w[n-2]w
[n-1])はその条件となる2つ前、1つ前の単語を示
す。さまざまな単語w[n]についてのそれぞれの出現確率
P(w[n]|w[n-2]w[n-1])はあらかじめ用意されたテキスト
データより学習しておき、辞書としてデータベース化し
て保存しておく。例えば、文の先頭に「単語」という語
が出現する確率は0.0021、その後に「検索」が続く確率
は0.001等のようにして保存されている。
【0005】さて、あらかじめ用意された原稿があるよ
うな場合については、上述したN−gramモデルで十
分であるが、音声認識の適用分野でそのような場合はむ
しろまれであり、実際はより自然な発話を認識すること
が応用上重要である。その場合には、内容・意味をもつ
通常の単語だけではなく、「アノー」「ソノー」といっ
た間投詞的表現や「エー」「アー」といった無意味な単
語が発声される。これらは不要語や冗長語と呼ばれる
が、それらに対応したN−gramモデルを作成し、そ
れらが自動的に除去されることが望ましい。
【0006】従来、このために提案されたN−gram
モデルの拡張は「透過単語」という概念を導入したもの
であった。たとえば「単語N−gramモデルを用いた
音声認識システムにおける未知語・冗長語の処理(甲斐
他、情報処理学会論文誌、第40巻、4号、1999年
4月)」や「放送音声の書き起こしに関する検討(西
村、伊東、音響学会秋季全国大会、1998年)」には
その方法が記述されている。たとえば前者では「冗長語
は文節間において比較的自由に出現するものであり、連
接制約であるN−gramが有効に働くとは考えられな
い」という仮定を元に学習時、認識時いずれにおいて
も、冗長語の存在を無視して確率計算が行なわれる。た
とえば、w[n-1]を冗長語だとするとw[n]の出現確率は P(w[n]|w[n-2]w[n-1]) から計算されるべきところを、w[n-1]を無視し、P(w[n]
|w[n-3]w[n-2])として推定する。このように無視され
る、つまりスキップされる単語である冗長語を「透過単
語」と呼ぶ。このモデルにおいては、それ自身、つまり
冗長語は冗長語以外の単語(通常単語)の各々の間に等
しい確率で出現するとして確率の計算が行われる。
【0007】しかしながら、この冗長語が実際に何ら情
報をもっておらず、通常単語間に自由に出現するものか
否かについて、英語ではその仮定を否定する報告があ
る。たとえば「Statistical Language Modeling for Sp
eech Disfluencies(A. Stolcke, E. Shriberg, Proc.
of ICASSP96)」では、冗長語に対しても通常のN−g
ramを適用した結果、冗長語に後続する単語の予測精
度が、透過単語モデルより向上したことが記述されてい
る。だが先の透過単語の説明で明らかなように、経験
上、冗長語のもつ性質が通常単語と異なり、単純な順序
列としてモデル化することが最適ではないことも知られ
ている。
【0008】一方、現在一般に用いられている、ディク
テーション用音声認識システムでは、異なる2つ以上の
言語モデルを補間するという方法が用いられることが多
い。これは本来ベースとなる汎用の言語モデルでは、コ
ンピュータ、スポーツといった分野固有の文に対して十
分対応できない場合、その分野固有のテキストから学習
した特定分野言語モデルを汎用のそれと組み合わせる手
法であり、以下のように確率計算が行われる。 Pr(w[n]|w[n-2],w[n-1])=λP1(w[n]|w[n-2],w[n-1])+(1
-λ)P2(w[n]|w[n-2],w[n-1]) ただし、P1は汎用言語モデルを示し、P2は特定分野言語
モデルを示す。ここでλは補間係数であり、実験により
最適な値に設定することとされている。
【0009】
【発明が解決しようとする課題】本願発明は、従来より
認識率の高い音声認識装置及び音声認識方法を提供する
ことを目的とする。
【0010】さらに、本願発明は、冗長語周辺部におけ
る単語予測の精度を向上させることを目的とする。
【0011】
【課題を解決するための手段】本願発明では、単語を冗
長語とそれ以外の通常の単語にわけ、予測される単語、
条件となる先行単語いずれにおいても、この2つを区別
し、それぞれについて上述の補間法を冗長語を含む単語
列に適用することによって冗長語周辺部における単語予
測の精度を向上させる。
【0012】より具体的には、アナログ音声入力信号を
デジタル信号に変換処理を行う音響処理手段と、音の特
徴を学習した音響モデルを記憶した記憶手段と、予め冗
長語と冗長語以外の通常の単語(通常単語)とを含む文
章に基づいて学習した第1の言語モデルと、冗長語を無
視して通常単語のみの文章に基づいて学習した第2の言
語モデルと、の両方の言語モデルを有する辞書を記憶し
た記憶手段と、前記デジタル信号について前記音響モデ
ル及び前記辞書を用いて確率を計算して最も確率の高い
語を入力された音声として認識する手段と、を有する音
声認識装置を提供する。
【0013】また、アナログ入力手段と、前記アナログ
音声をデジタル信号に変換処理する手段と、音の特徴を
学習した音響モデルを記憶した記憶手段と、予め冗長語
と冗長語以外の通常の単語(通常単語)とを含む文章に
基づいて学習した第1の言語モデルと、冗長語を無視し
て通常単語のみの文章に基づいて学習した第2の言語モ
デルと、の両方の言語モデルを有する辞書を記憶した記
憶手段と、前記デジタル信号について前記音響モデル及
び前記辞書を用いて確率を計算して最も確率の高い語を
入力された音声として認識する手段と、前記認識された
結果を表示する表示装置とを有するコンピュータ・シス
テムを提供する。
【0014】さらに、アナログ音声入力信号をデジタル
信号に変換処理し、予め冗長語と冗長語以外の通常の単
語(通常単語)とを含む文章に基づいて学習した第1の
言語モデルと、冗長語を無視して通常単語のみの文章に
基づいて学習した第2の言語モデルと、の両方の言語モ
デルを有する辞書を記憶し、前記デジタル信号について
音響モデルと前記辞書を用いて確率を計算して最も確率
の高い語を入力された音声として認識する音声認識方法
を提供する。
【0015】さらに、アナログ音声を入力し、前記アナ
ログ音声をデジタル信号に変換処理し、予め冗長語と冗
長語以外の通常の単語(通常単語)とを含む文章に基づ
いて学習した第1の言語モデルと、冗長語を無視して通
常単語のみの文章に基づいて学習した第2の言語モデル
と、の両方の言語モデルを有する辞書を記憶し、前記デ
ジタル信号について音響モデル及び前記辞書を用いて確
率を計算して最も確率の高い語を入力された音声として
認識し、前記認識された結果を表示する音声認識方法を
提供する。
【0016】さらに、コンピュータ・プログラムを有す
るコンピュータ読みとり可能な記憶媒体であって、前記
記憶媒体は、音響モデルと、冗長語と冗長語以外の通常
の単語(通常単語)とを含む文章に基づいて学習した第
1の言語モデルと、冗長語を無視して通常単語のみの文
章に基づいて学習した第2の言語モデルと、の両方の言
語モデルを有する辞書を記憶し、さらに前記コンピュー
タ・プログラムは、コンピュータに入力されたアナログ
音声入力信号が変換されたデジタル信号について前記辞
書を用いて確率を計算して最も確率の高い語を入力され
た音声として認識させるものである記憶媒体を提供す
る。
【0017】さらに、冗長語と冗長語以外の通常の単語
(通常単語)とを含む文章に基づいて学習した第1の言
語モデルと、冗長語を無視して通常単語のみの文章に基
づいて学習した第2の言語モデルと、の両方の言語モデ
ルを有する辞書を記憶した記憶媒体を提供する。
【0018】さらに、冗長語と冗長語以外の通常の単語
(通常単語)とを含む文章について音声認識をするため
の装置であって、認識の対象となる入力された語が通常
単語かどうか判断する手段と、通常単語であると判断さ
れた場合、さらに入力された語を認識するために必要な
条件となる語が通常単語のみからなるかどうかを判断す
る手段と、条件となる語が通常単語のみでなく冗長語も
含むと判断された場合、冗長語と冗長語以外の通常の単
語(通常単語)とを含む文章に基づいて学習した第1の
言語モデルと、冗長語を無視して通常単語のみの文章に
基づいて学習した第2の言語モデルと、の両方の言語モ
デルを有する辞書を用いて確率を計算して最も確率の高
い語を入力された音声として認識させる手段と、を有す
る音声認識装置を提供する。
【0019】さらに、冗長語と冗長語以外の通常の単語
(通常単語)とを含む文章について音声認識をするため
の方法であって、認識の対象となる入力された語が通常
単語かどうか判断するステップと、通常単語であると判
断された場合、さらに入力された語を認識するために必
要な条件となる語が通常単語のみからなるかどうかを判
断するステップと、条件となる語が通常単語のみでなく
冗長語も含むと判断された場合、冗長語と冗長語以外の
通常の単語(通常単語)とを含む文章に基づいて学習し
た第1の言語モデルと、冗長語を無視して通常単語のみ
の文章に基づいて学習した第2の言語モデルと、の両方
の言語モデルを有する辞書を用いて確率を計算して最も
確率の高い語を入力された音声として認識させるステッ
プと、を有する音声認識方法を提供する。
【0020】さらに、冗長語と冗長語以外の通常の単語
(通常単語)とを含む文章について音声認識をするため
のコンピュータ・プログラムを有するコンピュータ読み
とり可能な記憶媒体であって、前記コンピュータ・プロ
グラムは、コンピュータに認識の対象となる入力された
語が通常単語かどうか判断する手順と、通常単語である
と判断された場合、さらに入力された語を認識するため
に必要な条件となる語が通常単語のみからなるかどうか
を判断する手順と、条件となる語が通常単語のみでなく
冗長語も含むと判断された場合、冗長語と冗長語以外の
通常の単語(通常単語)とを含む文章に基づいて学習し
た第1の言語モデルと、冗長語を無視して通常単語のみ
の文章に基づいて学習した第2の言語モデルと、の両方
の言語モデルを有する辞書を用いて確率を計算して最も
確率の高い語を入力された音声として認識させる手順
と、を実行させるものである記憶媒体を提供する。
【0021】さらに、アナログ音声入力信号をデジタル
信号に変換処理を行う音響処理装置と、音の特徴を学習
した音響モデルを記憶した第1の記憶装置と、予め冗長
語と冗長語以外の通常の単語(通常単語)とを含む文章
に基づいて学習した第1の言語モデルと、冗長語を無視
して通常単語のみの文章に基づいて学習した第2の言語
モデルと、の両方の言語モデルを有する辞書を記憶した
第2の記憶装置と、前記音響処理装置及び前記第1及び
第2の記憶装置に接続され、前記デジタル信号について
前記音響モデル及び前記辞書を用いて確率を計算して最
も確率の高い語を入力された音声として認識する装置
と、を有する音声認識装置を提供する。
【0022】さらに、アナログ音声の入力装置と、前記
入力装置に接続され、前記アナログ音声をデジタル信号
に変換処理する変換装置と、音の特徴を学習した音響モ
デルを記憶した第1の記憶装置と、予め冗長語と冗長語
以外の通常の単語(通常単語)とを含む文章に基づいて
学習した第1の言語モデルと、冗長語を無視して通常単
語のみの文章に基づいて学習した第2の言語モデルと、
の両方の言語モデルを有する辞書を記憶した第2の記憶
装置と、前記変換装置及び前記第1及び第2の記憶装置
に接続され、前記デジタル信号について前記音響モデル
及び前記辞書を用いて確率を計算して最も確率の高い語
を入力された音声として認識する装置と、前記認識され
た結果を表示する表示装置とを有するコンピュータ・シ
ステムを提供する。
【0023】
【発明の実施の形態】図1は、本願発明の構成を示すブ
ロック図である。ブロック101において生成された文
章(すなわち真の文章)Wは、Sとして発話される(1
02)。一般にこの文章生成及び発話は発話者によって
なされる。発話されたSは、文章Wだけでなく、「アノ
ー」「エート」等の冗長語を含む音である。この入力さ
れた音声であるSは、音声認識手段110中の音響処理
部111によって信号Xに変換されて記憶される。この
変換された信号Xは、言語復号部112において、音の
特徴を学習した音響モデル113と、後述する学習によ
り予め作成された言語モデルについての辞書114を用
いて、真の文章だけでなく冗長語を含むものから必要な
言語を抽出して認識結果W’とする。このような一連の
動作を音にエンコードされたデータから必要なデータを
デコード(復号)するともいう。そして、認識された結
果の文章を表示する(120)。
【0024】次に、本願発明の実施される装置の典型的
なシステムの一例について図2に示す。発話者が発話し
た音声はマイク210からアナログ信号として入力さ
れ、コンピュータ装置220のサウンドカード221に
よりデジタル信号に変換処理され、メモリ222に記憶
される。なお、このような機能を奏するものであれば、
ハードウェアとして実現されていても、ソフトウェアと
して実現されていてもいずれでも良い。さらに、音響モ
デル及び後述する学習により作成された言語モデルを含
む辞書もメモリに記憶されている。これらの変換され記
憶された信号及び辞書からCPU223は言語の復号を
行い、認識された結果を表示装置230に表示する。な
お、マイクはコンピュータ装置や表示装置と一体化され
ていることもある。また、表示装置による結果の表示は
CRTや液晶などディスプレイだけでなく、印刷装置に
より紙に印刷されるような場合もある。
【0025】図1のブロック図と図2のシステムとの対
応を考えると、一例として、マイク、サウンドカード及
びメモリにより音響処理部の前段部が実現され、また音
響モデルと辞書(言語モデル)はメモリ上に記憶され、
音響処理部の後段部と言語復号はCPUを用いて行われ
(音響処理部の処理は単なるデジタル信号への変換だけ
でなく、特徴Xの抽出などのためにCPUが必要とな
る)、文章の表示は表示装置において行われる。ただ
し、これらの関係は固定的なものではない。例えば変換
された信号を記憶するメモリと辞書を有するメモリは物
理的に異なるものとすることもできる。ただし、このよ
うな場合もそれらを一体としてメモリとして考えること
も可能である。
【0026】上述の通り、本発明は単語を冗長語とそれ
以外の通常の単語(通常単語)にわけ、予測される単
語、条件となる先行単語いずれにおいても、この2つを
区別し、さらにこの補間法を冗長語を含む単語列に適用
することによって、冗長語周辺部における単語予測の精
度を向上させようとするものであるが、その具体的な内
容について以下により詳細に述べる。
【0027】冗長語のもつ性質の特殊性は、その情報が
後続単語の予測に寄与する程度が不明確な点にある。す
なわち、冗長語を無視して、それ以前の通常単語から予
測する方がよいというのが従来技術で述べた透過単語モ
デルの考え方である。これに対して、通常のN−gra
mモデルは、後続単語の予測に最も役にたつのは、それ
に隣接する単語であるという考え方に基づいている。そ
こで、この2つの方法で複数の言語モデルを作成し、そ
れらのモデルを補間して予測を行う。具体的には以下の
過程をへて確率の学習・計算を行う。以下簡単のためす
べてN=3(3−gram)とする。
【0028】まず、予め準備されたテキストデータに基
づいて、学習により図3に示すような辞書300を生成
する。具体的には、以下のようにして2つのモデルに基
づく辞書が生成される。なお、いずれの場合において
も、冗長語が連続する場合には、たとえば連続する冗長
語列を1つの冗長語に置き換えて学習すればよい。
【0029】1.各通常単語について、冗長語を除去し
た通常単語のみからなる学習テキストテータを用いて3
−gramの確率を学習する。つまり上述の透過単語モ
デルの考え方による言語モデルである。これをモデルU
(310)とする。
【0030】2.冗長語を含むテキストについて学習を
行う。この場合、さらに以下の2つの場合がある。ここ
でwfilは冗長語を表す。 (1)予測の対象となる語が冗長語wfilである場合の3
−gram確率、すなわちP(wfil|w[n-2],w[n-1])を学
習する。ここで、例えば条件のうちw[n-1]が通常単語、
w[n-2]が冗長語というような可能性があるが、その場合
にはw[n-2]をとばし、w[n-3]を条件部に用いP(wfil|w[n
-1],w[n-3])とする。つまり、この場合条件に冗長語は
含まないようにする。 (2)予測の対象となる語が通常単語であり、その直前
が冗長語である場合、その冗長語のみを条件とする2−
gram確率P(w[n]|wfil)を学習する。つまり、通常単
語の直前が冗長語である場合の確率である。以上のよう
に、条件部、予測対象のそれぞれにおいて冗長語と通常
単語を分けた確率を学習することが本学習の基本であ
る。この2.(1)、(2)をあわせてモデルD(32
0)とする。
【0031】このように学習により生成された辞書を用
いて、図4に示すようなフローチャートに従って認識の
ための確率計算を行う。以下、かかる図4について説明
する。
【0032】まず、音響処理部によって変換された音声
信号について音響モデルを用いた計算の結果に基づいて
認識候補として単語を選択する(400)。ここで、例
えば認識候補としての単語は数百個程度に絞られる。次
に、候補となる単語が通常単語であるか、冗長語である
かが判断される(410)。本発明では、対象単語が冗
長語であるか通常単語であるかによって異なる確率計算
を行うからである。
【0033】候補の単語が通常単語w[n]である場合、条
件部w[n-2]w[n-1]も通常単語のみからなるかどうかが判
断され(420)、条件部w[n-2]w[n-1]も通常単語のみ
からなる場合は、モデルUのP(w[n]|w[n-2],w[n-1])か
らw[n]の予測、つまり確率計算を行う(430)。
【0034】認識対象の単語が通常単語w[n]であるが、
条件部に冗長語が存在すると判断された場合は、モデル
UとモデルDの両方の辞書を用いて確率計算が行われる
(440)。
【0035】このブロック440について、本実施例に
ついてより詳細に説明すれば、認識対象の単語が通常単
語w[n]であるが、条件部に冗長語が存在するかどうかが
判断され(510)、直前の単語w[n-1]が冗長語の場合
は、それをとばして最も近接した通常単語まで遡りそれ
を条件としたモデルUの確率と、直前が冗長語であった
という条件のモデルDの確率を補間してw[n]の確率計算
を行う(520)。つまり当該確率Prは以下の式により
求められる。 Pr=λPU(w[n]|w[n-2],w[n-1])+(1-λ)PD(w[n]|wfil) ここで、PU : モデルUによる確率、PD : モデルDによ
る確率を示す。また、補間係数λは予め実験により最適
な値に決定する。例えば、補間係数の決定は、実験にお
いて補間係数λを0から1まで0.1刻みで変化させ、
冗長語を含むモデル文章について最も認識率が高くなる
ような値を採用する。
【0036】認識対象の単語が冗長語w[n]である場合、
条件部w[n-2],w[n-1]に冗長語が存在するにはそれをと
ばして(530)、最も近接した通常単語w[n-i], w[n-
j]まで遡り、それを条件部とするモデルD、PD(w[n]|w
[n-i],w[n-j])により確率計算を行う(540)。
【0037】以上の結果に基づいて、言語モデルによる
予測される語の確率を求める(460)。この場合、最
も確率の高い語を認識語として表示させるようにしても
良いし、あるいはこの予測結果からさらに候補語を百語
程度に絞り込み、再度音響モデルによる確率計算を詳細
に行い認識結果を算出しても良い。
【0038】このように、本発明においては、確率計算
において、予測対象、条件のいずれにおいても、冗長語
である場合と、そうではない場合を分離し、それらを別
々に学習しておくこと、そして確率計算時においては、
その2つのモデルを補間して通常単語・冗長語の影響が
より適した割合で考慮されることになる。
【0039】なお、本発明においては、補間係数λを適
切な値に設定することが、その効果に大きく影響する。
その値に影響を与える要素としては、不要語の出現率、
学習コーパスの量など多くのものがあり、理論的考察が
困難なため、実験により、言語モデルがどの程度有効に
働いているかという値を求め、それを基準として決定す
ることが多い。
【0040】言語モデルの有効性は一般にパープレキシ
ティという統計量が用いられる。その定義の詳細はたと
えば、「音声・音情報のディジタル信号処理」(鹿野他
著、昭晃堂、1997年)に記述があるが、直感的には
全認識対象語彙(たとえば6万語)が言語モデルを使用
することにより、何単語程度の対象語彙と等価にまで減
少したかを意味し、より小さい値の方がよい。
【0041】たとえばテレビの講演を書き起こした約10
0万単語からなるコーパスの場合、λは0.2が最適であっ
た。そこでパープレキシティを求めた結果、透過単語モ
デルは225.0であるのに対して、本発明によるモデルで
はは195.1であり、約13%の改善であることがわかった。
当業者であれば理解されるところであるが、この分野に
おける改良案には不要語に限らず多くのものがあるが、
その中でこの値は大きいものである。
【0042】以上の例の他、冗長語予測においても条件
部において、直前単語が冗長語、すなわち冗長語が連続
する場合に、その条件付き確率と補間することなど、さ
まざまな組み合わせが考えられる。
【0043】例えば、上述の例では、モデルDについ
て、対象語の直前が冗長語の場合についてのみ学習を行
わせたが、例えばその対象語の2語前が冗長語の場合
(3−gramモデル)等の確率もさらに加味して補間
する方法もある。
【0044】さらに、本発明においては前述のように、
音響処理部によって変換された音声信号について、まず
先に音響モデルを用いた計算の結果に基づいて認識候補
として単語を選択してある程度絞り込んだ上でそれらに
言語モデルを適用して確率を求めて総合判定を行い認識
の最終結果を得るが(図6(a))、逆にまず先に認識
された語の履歴に基づいて言語モデルを適用して候補と
なる語をある程度絞り込んだ上でそれらに音響モデルを
適用して認識を行う方法も考えられる(図6(b))。
【0045】
【発明の効果】本願発明により、従来より認識率の高い
音声認識装置及び音声認識方法を提供するが可能とな
り、さらに、冗長語周辺部における単語予測の精度を向
上させることが可能となる。
【図面の簡単な説明】
【図1】本発明の構成を示すブロック図である。
【図2】本発明の実施されるコンピュータ・システムの
一例を示す図である。
【図3】本発明に用いられる辞書についての図である。
【図4】本発明の処理の流れを示すフローチャートであ
る。
【図5】本発明の処理の流れを示すフローチャートであ
る。
【図6】音声認識処理の流れを示すフローチャートであ
る。
【符号の説明】
110 音声認識手段 210 マイク 220 コンピュータ装置 221 サウンドカード 222 メモリ 223 CPU 230 表示装置
───────────────────────────────────────────────────── フロントページの続き (72)発明者 伊東 信泰 神奈川県大和市下鶴間1623番地14 日本ア イ・ビー・エム株式会社 東京基礎研究所 内 (72)発明者 西村 雅史 神奈川県大和市下鶴間1623番地14 日本ア イ・ビー・エム株式会社 東京基礎研究所 内 Fターム(参考) 5D015 HH23 LL05

Claims (29)

    【特許請求の範囲】
  1. 【請求項1】アナログ音声入力信号をデジタル信号に変
    換処理を行う音響処理手段と、 音の特徴を学習した音響モデルを記憶した記憶手段と、 予め冗長語と冗長語以外の通常の単語(通常単語)とを
    含む文章に基づいて学習した第1の言語モデルと、冗長
    語を無視して通常単語のみの文章に基づいて学習した第
    2の言語モデルと、の両方の言語モデルを有する辞書を
    記憶した記憶手段と、 前記デジタル信号について前記音響モデル及び前記辞書
    を用いて確率を計算して最も確率の高い語を入力された
    音声として認識する手段と、 を有する音声認識装置。
  2. 【請求項2】前記第1及び第2の言語モデルはN−gr
    amモデルである請求項1記載の音声認識装置。
  3. 【請求項3】アナログ音声の入力手段と、 前記アナログ音声をデジタル信号に変換処理する手段
    と、 音の特徴を学習した音響モデルを記憶した記憶手段と、 予め冗長語と冗長語以外の通常の単語(通常単語)とを
    含む文章に基づいて学習した第1の言語モデルと、冗長
    語を無視して通常単語のみの文章に基づいて学習した第
    2の言語モデルと、の両方の言語モデルを有する辞書を
    記憶した記憶手段と、 前記デジタル信号について前記音響モデル及び前記辞書
    を用いて確率を計算して最も確率の高い語を入力された
    音声として認識する手段と、 前記認識された結果を表示する表示装置とを有するコン
    ピュータ・システム。
  4. 【請求項4】前記第1及び第2の言語モデルはN−gr
    amモデルである請求項3記載の音コンピュータ・シス
    テム。
  5. 【請求項5】アナログ音声入力信号をデジタル信号に変
    換処理し、 予め冗長語と冗長語以外の通常の単語(通常単語)とを
    含む文章に基づいて学習した第1の言語モデルと、冗長
    語を無視して通常単語のみの文章に基づいて学習した第
    2の言語モデルと、の両方の言語モデルを有する辞書を
    記憶し、 前記デジタル信号について音響モデルと前記辞書を用い
    て確率を計算して最も確率の高い語を入力された音声と
    して認識する音声認識方法。
  6. 【請求項6】前記第1及び第2の言語モデルはN−gr
    amモデルである請求項5記載の音声認識方法。
  7. 【請求項7】アナログ音声を入力し、 前記アナログ音声をデジタル信号に変換処理し、 予め冗長語と冗長語以外の通常の単語(通常単語)とを
    含む文章に基づいて学習した第1の言語モデルと、冗長
    語を無視して通常単語のみの文章に基づいて学習した第
    2の言語モデルと、の両方の言語モデルを有する辞書を
    記憶し、 前記デジタル信号について音響モデル及び前記辞書を用
    いて確率を計算して最も確率の高い語を入力された音声
    として認識し、 前記認識された結果を表示する音声認識方法。
  8. 【請求項8】前記第1及び第2の言語モデルはN−gr
    amモデルである請求項7記載の音声認識方法。
  9. 【請求項9】コンピュータ・プログラムを有するコンピ
    ュータ読みとり可能な記憶媒体であって、前記記憶媒体
    は、 音響モデルと、 冗長語と冗長語以外の通常の単語(通常単語)とを含む
    文章に基づいて学習した第1の言語モデルと、冗長語を
    無視して通常単語のみの文章に基づいて学習した第2の
    言語モデルと、の両方の言語モデルを有する辞書を記憶
    し、さらに前記コンピュータ・プログラムは、コンピュ
    ータに入力されたアナログ音声入力信号が変換されたデ
    ジタル信号について前記辞書を用いて確率を計算して最
    も確率の高い語を入力された音声として認識させるもの
    である記憶媒体。
  10. 【請求項10】前記第1及び第2の言語モデルはN−g
    ramモデルである請求項9記載の記憶媒体。
  11. 【請求項11】冗長語と冗長語以外の通常の単語(通常
    単語)とを含む文章に基づいて学習した第1の言語モデ
    ルと、冗長語を無視して通常単語のみの文章に基づいて
    学習した第2の言語モデルと、の両方の言語モデルを有
    する辞書を記憶した記憶媒体。
  12. 【請求項12】前記第1及び第2の言語モデルはN−g
    ramモデルである請求項11記載の記憶媒体。
  13. 【請求項13】冗長語と冗長語以外の通常の単語(通常
    単語)とを含む文章について音声認識をするための装置
    であって、(1)認識の対象となる入力された語が通常
    単語かどうか判断する手段と、(2)前記(1)で通常
    単語であると判断された場合、さらに入力された語を認
    識するために必要な条件となる語が通常単語のみからな
    るかどうかを判断する手段と、(3)前記(2)で条件
    となる語が通常単語のみでなく冗長語も含むと判断され
    た場合、冗長語と冗長語以外の通常の単語(通常単語)
    とを含む文章に基づいて学習した第1の言語モデルと、
    冗長語を無視して通常単語のみの文章に基づいて学習し
    た第2の言語モデルと、の両方の言語モデルを有する辞
    書を用いて確率を計算して最も確率の高い語を入力され
    た音声として認識させる手段と、を有する音声認識装
    置。
  14. 【請求項14】前記装置はさらに、(1−1)前記
    (1)で、対象となる語が通常単語でないと判断された
    場合、第1の言語モデルに基づいて確率を計算する手段
    を有する請求項13記載の音声認識装置。
  15. 【請求項15】前記装置はさらに、(2−1)前記
    (2)で条件となる語が通常単語のみからなると判断さ
    れた場合、第2の言語モデルに基づいて確率を計算する
    手段を有する請求項13又は14記載の音声認識装置。
  16. 【請求項16】前記(3)はさらに、(3−1)対象と
    なる語の直前が冗長語かどうかを判断する手段と、(3
    −2)前記(3−1)で、直前が冗長語であると判断さ
    れた場合、第1の言語モデルと第2の言語モデルから確
    率を計算する手段と、を有する請求項13ないし15の
    いずれか記載の音声認識装置。
  17. 【請求項17】前記装置はさらに、(3−1−2)前記
    (3−1)で、直前の語が冗長語でないと判断された場
    合、第2のモデルから確率を計算する手段を有する請求
    項13ないし16のいずれか記載の音声認識装置。
  18. 【請求項18】冗長語と冗長語以外の通常の単語(通常
    単語)とを含む文章について音声認識をするための方法
    であって、(1)認識の対象となる入力された語が通常
    単語かどうか判断するステップと、(2)前記ステップ
    (1)で通常単語であると判断された場合、さらに入力
    された語を認識するために必要な条件となる語が通常単
    語のみからなるかどうかを判断するステップと、(3)
    前記ステップ(2)で条件となる語が通常単語のみでな
    く冗長語も含むと判断された場合、冗長語と冗長語以外
    の通常の単語(通常単語)とを含む文章に基づいて学習
    した第1の言語モデルと、冗長語を無視して通常単語の
    みの文章に基づいて学習した第2の言語モデルと、の両
    方の言語モデルを有する辞書を用いて確率を計算して最
    も確率の高い語を入力された音声として認識させるステ
    ップと、を有する音声認識方法。
  19. 【請求項19】前記方法はさらに、(1−1)前記ステ
    ップ(1)で、対象となる語が通常単語でないと判断さ
    れた場合、第1の言語モデルに基づいて確率を計算する
    ステップを有する請求項18記載の音声認識方法。
  20. 【請求項20】前記方法はさらに、(2−1)前記ステ
    ップ(2)で条件となる語が通常単語のみからなると判
    断された場合、第2の言語モデルに基づいて確率を計算
    するステップを有する請求項18または19記載の音声
    認識方法。
  21. 【請求項21】前記ステップ(3)はさらに、(3−
    1)対象となる語の直前が冗長語かどうかを判断するス
    テップと、(3−2)前記ステップ(3−1)で、直前
    が冗長語であると判断された場合、第1の言語モデルと
    第2の言語モデルから確率を計算するステップと、を有
    する請求項18ないし20のいずれか記載の音声認識方
    法。
  22. 【請求項22】前記方法はさらに、(3−1−2)前記
    ステップ(3−1)で、直前の語が冗長語でないと判断
    された場合、第2のモデルから確率を計算するステップ
    を有する請求項18ないし21のいずれか記載の音声認
    識方法。
  23. 【請求項23】冗長語と冗長語以外の通常の単語(通常
    単語)とを含む文章について音声認識をするためのコン
    ピュータ・プログラムを有するコンピュータ読みとり可
    能な記憶媒体であって、前記コンピュータ・プログラム
    は、コンピュータに(1)認識の対象となる入力された
    語が通常単語かどうか判断する手順と、(2)前記手順
    (1)で通常単語であると判断された場合、さらに入力
    された語を認識するために必要な条件となる語が通常単
    語のみからなるかどうかを判断する手順と、(3)前記
    手順(2)で条件となる語が通常単語のみでなく冗長語
    も含むと判断された場合、冗長語と冗長語以外の通常の
    単語(通常単語)とを含む文章に基づいて学習した第1
    の言語モデルと、冗長語を無視して通常単語のみの文章
    に基づいて学習した第2の言語モデルと、の両方の言語
    モデルを有する辞書を用いて確率を計算して最も確率の
    高い語を入力された音声として認識させる手順と、を実
    行させるものである記憶媒体。
  24. 【請求項24】前記プログラムはさらにコンピュータ
    に、(1−1)前記手順(1)で、対象となる語が通常
    単語でないと判断された場合、第1の言語モデルに基づ
    いて確率を計算する手順を実行させるものである請求項
    23記載の記憶媒体。
  25. 【請求項25】前記プログラムはさらにコンピュータ
    に、、(2−1)前記手順(2)で条件となる語が通常
    単語のみからなると判断された場合、第2の言語モデル
    に基づいて確率を計算する手順を実行させるものである
    請求項23または24記載の記憶媒体。
  26. 【請求項26】前記プログラムはさらにコンピュータ
    に、、(3−1)対象となる語の直前が冗長語かどうか
    を判断する手順と、(3−2)前記手順(3−1)で、
    直前が冗長語であると判断された場合、第1の言語モデ
    ルと第2の言語モデルから確率を計算する手順と、を実
    行させるものである請求項23ないし25のいずれか記
    載の記憶媒体。
  27. 【請求項27】前記プログラムはさらにコンピュータ
    に、(3−1−2)前記手順(3−1)で、直前の語が
    冗長語でないと判断された場合、第2のモデルから確率
    を計算する手順を実行させるものである請求項23ない
    し26のいずれか記載の記憶媒体。
  28. 【請求項28】アナログ音声入力信号をデジタル信号に
    変換処理を行う音響処理装置と、 音の特徴を学習した音響モデルを記憶した第1の記憶装
    置と、 予め冗長語と冗長語以外の通常の単語(通常単語)とを
    含む文章に基づいて学習した第1の言語モデルと、冗長
    語を無視して通常単語のみの文章に基づいて学習した第
    2の言語モデルと、の両方の言語モデルを有する辞書を
    記憶した第2の記憶装置と、 前記音響処理装置及び前記第1及び第2の記憶装置に接
    続され、前記デジタル信号について前記音響モデル及び
    前記辞書を用いて確率を計算して最も確率の高い語を入
    力された音声として認識する装置と、 を有する音声認識装置。
  29. 【請求項29】アナログ音声の入力装置と、 前記入力装置に接続され、前記アナログ音声をデジタル
    信号に変換処理する変換装置と、 音の特徴を学習した音響モデルを記憶した第1の記憶装
    置と、 予め冗長語と冗長語以外の通常の単語(通常単語)とを
    含む文章に基づいて学習した第1の言語モデルと、冗長
    語を無視して通常単語のみの文章に基づいて学習した第
    2の言語モデルと、の両方の言語モデルを有する辞書を
    記憶した第2の記憶装置と、 前記変換装置及び前記第1及び第2の記憶装置に接続さ
    れ、前記デジタル信号について前記音響モデル及び前記
    辞書を用いて確率を計算して最も確率の高い語を入力さ
    れた音声として認識する装置と、 前記認識された結果を表示する表示装置とを有するコン
    ピュータ・システム。
JP37041399A 1999-12-27 1999-12-27 音声認識装置、方法、コンピュータ・システム及び記憶媒体 Expired - Fee Related JP3426176B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP37041399A JP3426176B2 (ja) 1999-12-27 1999-12-27 音声認識装置、方法、コンピュータ・システム及び記憶媒体
CNB00135969XA CN1230764C (zh) 1999-12-27 2000-12-19 用于语音识别的设备、方法和计算机系统
US09/748,542 US6917910B2 (en) 1999-12-27 2000-12-26 Method, apparatus, computer system and storage medium for speech recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37041399A JP3426176B2 (ja) 1999-12-27 1999-12-27 音声認識装置、方法、コンピュータ・システム及び記憶媒体

Publications (2)

Publication Number Publication Date
JP2001188558A true JP2001188558A (ja) 2001-07-10
JP3426176B2 JP3426176B2 (ja) 2003-07-14

Family

ID=18496852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37041399A Expired - Fee Related JP3426176B2 (ja) 1999-12-27 1999-12-27 音声認識装置、方法、コンピュータ・システム及び記憶媒体

Country Status (3)

Country Link
US (1) US6917910B2 (ja)
JP (1) JP3426176B2 (ja)
CN (1) CN1230764C (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230068A (ja) * 2008-03-25 2009-10-08 Denso Corp 音声認識装置及びナビゲーションシステム
WO2012093451A1 (ja) * 2011-01-07 2012-07-12 日本電気株式会社 音声認識システム、音声認識方法および音声認識プログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7533020B2 (en) * 2001-09-28 2009-05-12 Nuance Communications, Inc. Method and apparatus for performing relational speech recognition
US7308404B2 (en) * 2001-09-28 2007-12-11 Sri International Method and apparatus for speech recognition using a dynamic vocabulary
US9286935B1 (en) * 2007-01-29 2016-03-15 Start Project, LLC Simplified data entry
US8161069B1 (en) 2007-02-01 2012-04-17 Eighty-Three Degrees, Inc. Content sharing using metadata
US7809719B2 (en) * 2007-02-08 2010-10-05 Microsoft Corporation Predicting textual candidates
US7912700B2 (en) * 2007-02-08 2011-03-22 Microsoft Corporation Context based word prediction
JP5241828B2 (ja) * 2007-06-14 2013-07-17 グーグル・インコーポレーテッド 辞書の単語及び熟語の判定
WO2008151466A1 (en) * 2007-06-14 2008-12-18 Google Inc. Dictionary word and phrase determination
WO2010061507A1 (ja) * 2008-11-28 2010-06-03 日本電気株式会社 言語モデル作成装置
US10191654B2 (en) 2009-03-30 2019-01-29 Touchtype Limited System and method for inputting text into electronic devices
US9424246B2 (en) 2009-03-30 2016-08-23 Touchtype Ltd. System and method for inputting text into electronic devices
GB0905457D0 (en) 2009-03-30 2009-05-13 Touchtype Ltd System and method for inputting text into electronic devices
CN103578465B (zh) * 2013-10-18 2016-08-17 威盛电子股份有限公司 语音辨识方法及电子装置
WO2016008128A1 (en) * 2014-07-17 2016-01-21 Microsoft Technology Licensing, Llc Speech recognition using foreign word grammar
US10522140B2 (en) * 2015-02-23 2019-12-31 Sony Corporation Information processing system and information processing method
CN105869624B (zh) * 2016-03-29 2019-05-10 腾讯科技(深圳)有限公司 数字语音识别中语音解码网络的构建方法及装置
GB201610984D0 (en) 2016-06-23 2016-08-10 Microsoft Technology Licensing Llc Suppression of input images
CN106254696A (zh) * 2016-08-02 2016-12-21 北京京东尚科信息技术有限公司 外呼结果确定方法、装置及系统
KR102455067B1 (ko) * 2017-11-24 2022-10-17 삼성전자주식회사 전자 장치 및 그 제어 방법
US11295732B2 (en) * 2019-08-01 2022-04-05 Soundhound, Inc. Dynamic interpolation for hybrid language models
CN111326160A (zh) * 2020-03-11 2020-06-23 南京奥拓电子科技有限公司 一种纠正噪音文本的语音识别方法、系统及存储介质
CN112397059B (zh) * 2020-11-10 2024-02-06 武汉天有科技有限公司 一种语音流畅度检测方法及装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6152698A (ja) 1984-08-23 1986-03-15 日立電子エンジニアリング株式会社 音声認識装置
US5261009A (en) * 1985-10-15 1993-11-09 Palantir Corporation Means for resolving ambiguities in text passed upon character context
JP3240691B2 (ja) 1992-07-07 2001-12-17 日本電信電話株式会社 音声認識方法
JPH07104782A (ja) 1993-10-04 1995-04-21 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 音声認識装置
US5797123A (en) * 1996-10-01 1998-08-18 Lucent Technologies Inc. Method of key-phase detection and verification for flexible speech understanding
US6212498B1 (en) * 1997-03-28 2001-04-03 Dragon Systems, Inc. Enrollment in speech recognition
US6018708A (en) * 1997-08-26 2000-01-25 Nortel Networks Corporation Method and apparatus for performing speech recognition utilizing a supplementary lexicon of frequently used orthographies
US6125345A (en) * 1997-09-19 2000-09-26 At&T Corporation Method and apparatus for discriminative utterance verification using multiple confidence measures
CN1159662C (zh) * 1998-05-13 2004-07-28 国际商业机器公司 连续语音识别中的标点符号自动生成装置及方法
JP3004254B2 (ja) * 1998-06-12 2000-01-31 株式会社エイ・ティ・アール音声翻訳通信研究所 統計的シーケンスモデル生成装置、統計的言語モデル生成装置及び音声認識装置
US6292778B1 (en) * 1998-10-30 2001-09-18 Lucent Technologies Inc. Task-independent utterance verification with subword-based minimum verification error training
US6374217B1 (en) * 1999-03-12 2002-04-16 Apple Computer, Inc. Fast update implementation for efficient latent semantic language modeling
US6385579B1 (en) * 1999-04-29 2002-05-07 International Business Machines Corporation Methods and apparatus for forming compound words for use in a continuous speech recognition system
JP2003515778A (ja) * 1999-12-02 2003-05-07 トムソン ライセンシング ソシエテ アノニム 別々の言語モデルによる音声認識方法及び装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009230068A (ja) * 2008-03-25 2009-10-08 Denso Corp 音声認識装置及びナビゲーションシステム
WO2012093451A1 (ja) * 2011-01-07 2012-07-12 日本電気株式会社 音声認識システム、音声認識方法および音声認識プログラム

Also Published As

Publication number Publication date
CN1302025A (zh) 2001-07-04
US20010014859A1 (en) 2001-08-16
US6917910B2 (en) 2005-07-12
JP3426176B2 (ja) 2003-07-14
CN1230764C (zh) 2005-12-07

Similar Documents

Publication Publication Date Title
JP6916264B2 (ja) 切断アテンションに基づくリアルタイム音声認識方法、装置、機器及びコンピュータ読み取り可能な記憶媒体
JP2001188558A (ja) 音声認識装置、方法、コンピュータ・システム及び記憶媒体
US7395205B2 (en) Dynamic language model mixtures with history-based buckets
JP7092953B2 (ja) エンドツーエンドモデルによる多言語音声認識のための音素に基づく文脈解析
JP2002041080A (ja) 単語予測方法、音声認識方法、単語予測装置、音声認識装置、コンピュータ・システム、記憶媒体およびプログラム伝送装置
CN111210807B (zh) 语音识别模型训练方法、系统、移动终端及存储介质
JP2002258890A (ja) 音声認識装置、コンピュータ・システム、音声認識方法、プログラムおよび記録媒体
US20150112685A1 (en) Speech recognition method and electronic apparatus using the method
JPH10501078A (ja) 音声認識システムの言語モデルのサイズを適応させるための方法および装置
WO2017061027A1 (ja) 言語モデル生成装置、言語モデル生成方法とそのプログラム、音声認識装置、および音声認識方法とそのプログラム
CN111243599A (zh) 语音识别模型构建方法、装置、介质及电子设备
JP6875819B2 (ja) 音響モデル入力データの正規化装置及び方法と、音声認識装置
US20230343328A1 (en) Efficient streaming non-recurrent on-device end-to-end model
US20210035569A1 (en) Dynamic interpolation for hybrid language models
JP2024512605A (ja) 柔軟なストリーミングおよび非ストリーミング自動音声認識のための混合モデルアテンション
US20040006469A1 (en) Apparatus and method for updating lexicon
JP2000172294A (ja) 音声認識方法、その装置及びプログラム記録媒体
US20230096821A1 (en) Large-Scale Language Model Data Selection for Rare-Word Speech Recognition
JP2024512579A (ja) ルックアップテーブルリカレント言語モデル
KR20050101695A (ko) 인식 결과를 이용한 통계적인 음성 인식 시스템 및 그 방법
KR20050101694A (ko) 문법적 제약을 갖는 통계적인 음성 인식 시스템 및 그 방법
JP6276516B2 (ja) 辞書作成装置、及び辞書作成プログラム
JP2004021207A (ja) 音素認識方法、音素認識装置および音素認識プログラム
US20020143525A1 (en) Method of decoding telegraphic speech
JP2001013992A (ja) 音声理解装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees