JP4951664B2 - コンピュータによる複数の方言を背景とする共通語音声認識のモデリング方法及びシステム - Google Patents
コンピュータによる複数の方言を背景とする共通語音声認識のモデリング方法及びシステム Download PDFInfo
- Publication number
- JP4951664B2 JP4951664B2 JP2009248013A JP2009248013A JP4951664B2 JP 4951664 B2 JP4951664 B2 JP 4951664B2 JP 2009248013 A JP2009248013 A JP 2009248013A JP 2009248013 A JP2009248013 A JP 2009248013A JP 4951664 B2 JP4951664 B2 JP 4951664B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- common language
- dialect
- language model
- standard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 31
- 239000011159 matrix material Substances 0.000 claims description 48
- 238000011161 development Methods 0.000 claims description 43
- 230000018109 developmental process Effects 0.000 claims description 43
- 238000009826 distribution Methods 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 12
- 239000000203 mixture Substances 0.000 claims description 12
- 230000008140 language development Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Description
(1)標準的共通語のトレーニングデータに基づいてトライフォンによる標準的共通語モデルを生成し、第1種の方言なまり共通語のディベロップメントデータに基づいてモノフォンによる第1方言なまり共通語モデルを生成し、第2種の方言なまり共通語のディベロップメントデータに基づいてモノフォンによる第2方言なまり共通語モデルを生成し;
(2)標準的共通語モデルを用いて第1種の方言なまり共通語のディベロップメントデータを認識することにより第1混同行列を生成し、当該第1混同行列に応じて第1方言なまり共通語モデルを標準的共通語モデルの中にマージして一時マージモデルを得て;
(3)一時マージモデルを用いて第2種の方言なまり共通語のディベロップメントデータを認識することにより第2混同行列を生成し、当該第2混同行列に応じて第2方言なまり共通語モデルを一時マージモデルの中にマージして認識モデルを得る。
xで被認識音声の観測特徴ベクター、sで前記標準的共通語モデルにおける隠れマルコフ状態、d1で前記第1方言なまり共通語モデルにおける隠れマルコフ状態、を表す場合、下記の数式で与えられる前記一時マージモデルにおける確率密度関数は
p’(x|s)=λ1p(x|s)+(1−λ1)p(x|d1)p(d1|s)
であり、
その中で、λ1は線形補間係数であり、0<λ1<1を満たし、
前記認識モデルの確率密度関数は
本発明の方法では、反復的な方法で複数の方言なまり共通語モデルを一つ一つ標準的共通語モデルの中にマージすることにより、方言ごとに音響モデルをトレーニングするような重複作業を免れ、作業の効率を高めることができる。また、本発明の方法によれば、方言なまり共通語に対する認識率を明らかに高めることができ、同時に、標準的共通語に対する認識率が下がらないばかりか、上がることもある。そのため、他の方法のように方言なまり共通語に対し適する処理をすると、標準的共通語に対する認識率は著しく下がるという課題を解決する。
図1は本発明のn種(以下、nは2以上の自然数)の方言を背景とする共通語音声認識のモデリング方法の原理を示す概念図である。本モデリング方法において、
(1)標準的共通語のトレーニングデータに基づいてトライフォン(Triphone)による標準的共通語モデルを生成し、対応しようとする第1〜n種の方言なまり共通語のそれぞれに対し、そのディベロップメントデータに基づいてモノフォン(Monophone)による第1〜第n方言なまり共通語モデルを生成し、
(2)前記標準的共通語モデルを用いて第1種の方言なまり共通語のディベロップメントデータを認識することにより第1混同行列(Confusion Matrix)を生成し、当該第1混同行列に応じて第1方言なまり共通語モデルを前記標準的共通語モデルの中にマージして第1一時マージモデルを得て、
(3)第(i−1)一時マージモデル(iは2<i<nを満たす自然数)を用いて第i種の方言なまり共通語のディベロップメントデータを認識することにより第i混同行列を生成し、当該第i混同行列に応じて第i方言なまり共通語モデルを前記第(i−1)一時マージモデルの中にマージする動作を、i=2からi=nまで順に繰り返すことにより、最終の認識モデルを得る。
ディベロップメントDB10−1〜10−nは、それぞれ第1〜第n種の方言なまり共通語のテストデータを記憶しているデータベースである。
モデル生成部30−0は、前記トレーニングDB10−0に記憶されている標準的共通語トレーニングデータに基づいて、トライフォンによる標準的共通語モデルを生成するためのものである。
モデル生成部30−1〜30−nは、それぞれ前記ディベロップメントDB10−1〜10−nに記憶されている第1〜第n種の方言なまり共通語のディベロップメントデータに基づいて、モノフォンによる第1〜第n方言なまり共通語モデルを生成するためのブロックである。
混同行列生成部40−1〜40−nは、それぞれ対応するモデル生成部30−0〜30−(n−1)により生成されたモデルを用いて、ディベロップメントDB10−1〜10−nに記憶されている第1〜第n種の方言なまり共通語のディベロップメントデータを認識することにより、第1〜第n混同行列をそれぞれ生成するブロックである。
モデルマージ部50−1は、前記混同行列生成部40−1により生成された第1混同行列に応じて、前記モデル生成部30−1により生成された第1方言なまり共通語モデルを、前記モデル生成部30−0により生成された標準的共通語モデルの中にマージして第1一時マージモデルを生成するものである。
モデルマージ部50−2〜50−(n−1)は、それぞれ対応する前記混同行列生成部40−2〜40−(n−1)により生成された第2〜第(n−1)混同行列に応じて、前記モデル生成部30−2〜30−(n−1)により生成された第2〜第(n−1)方言なまり共通語モデルを、その直前のモデルマージ部により生成された一時マージモデルの中にマージして第2〜第(n−1)一時マージモデルをそれぞれ生成するものである。
モデルマージ部50−nは、前記混同行列生成部40−nにより生成された第n混同行列に応じて、前記モデル生成部30−nにより生成された第n方言なまり共通語モデルを、その直前のモデルマージ部50−(n−1)により生成された第(n−1)一時マージモデルの中にマージして最終の認識モデルを生成するものである。
(1)標準的共通語のトレーニングデータに基づいてトライフォンによる標準的共通語モデルを生成し、第1種の方言なまり共通語のディベロップメントデータに基づいてモノフォンによる第1方言なまり共通語モデルを生成し、第2種の方言なまり共通語のディベロップメントデータに基づいてモノフォンによる第2方言なまり共通語モデルを生成する;
(2)前記標準的共通語モデルを用いて第1種の方言なまり共通語のディベロップメントデータを認識することにより第1混同行列を取得し、当該第1混同行列に応じて前記第1方言なまり共通語モデルを前記標準的共通語モデルの中にマージして一時マージモデルを得る;
(3)前記一時マージモデルを用いて第2種の方言なまり共通語のディベロップメントデータを認識することにより第2混同行列を取得し、当該第2混同行列に応じて前記第2方言なまり共通語モデルを前記一時マージモデルの中にマージして認識モデルを得る。
xで被認識音声の観測特徴ベクター、sで標準的共通語モデルにおける隠れマルコフ状態、d1で第1方言なまり共通語モデルにおける隠れマルコフ状態、を表す場合、下記の数式で与えられる一時マージモデルにおける確率密度関数は
p’(x|s)=λ1p(x|s)+(1−λ1)p(x|d1)p(d1|s) (1)
である。
その中で、λ1は線形補間係数であり、0<λ1<1を満たす。
p’(x|s)=λ1p(x|s)+(1−λ1)p(x|d1)p(d1|s) (1)
と記述できる。
その中で、d2で第2方言なまり共通語モデルにおける隠れマルコフ状態を表す。λ2は0<λ2<1を満たす線形補間係数であり、前記一時マージモデルが最終マージモデルにおいて占める重みを表す。実際においては最適なλ2は実験を通して決められる。Kは標準的共通語モデルの隠れマルコフ状態sの混合正規分布の混合数である。Nk (sc)(・)は標準的共通語モデルの隠れマルコフ状態sの混合正規分布の要素である。Mは前記第1方言なまり共通語モデルの隠れマルコフ状態d1と標準的共通語モデルの隠れマルコフ状態sの間での発音バリエーションの数である。Nは前記第1方言なまり共通語モデルの隠れマルコフ状態d1の混合正規分布の混合数である。Nmn (dc1)(・)は前記第1方言なまり共通語モデルの隠れマルコフ状態d1の混合正規分布の要素である。P(d1m|s)は発音変化モデルの確率を表す。Pは前記第2方言なまり共通語モデルの隠れマルコフ状態d2と標準的共通語モデルの隠れマルコフ状態sの間での発音バリエーションの数である。Qは前記第2方言なまり共通語モデルの隠れマルコフ状態d2の混合正規分布の混合数である。N(dc2))(・)は前記第2方言なまり共通語モデルの隠れマルコフ状態d2の混合正規分布の要素である。P(d2p|s)は発音変化モデルの確率を表す。
Claims (9)
- 複数の方言を背景とする共通語音声認識のモデリング方法であって、
(1)標準的共通語のトレーニングデータに基づいてトライフォンによる標準的共通語モデルを生成し、第1種の方言なまり共通語のディベロップメントデータに基づいてモノフォンによる第1方言なまり共通語モデルを生成し、第2種の方言なまり共通語のディベロップメントデータに基づいてモノフォンによる第2方言なまり共通語モデルを生成する工程と、
(2)前記標準的共通語モデルを用いて第1種の方言なまり共通語のディベロップメントデータを認識することにより第1混同行列を生成し、当該第1混同行列に応じて前記第1方言なまり共通語モデルを前記標準的共通語モデルの中にマージして一時マージモデルを得る工程と、
(3)前記一時マージモデルを用いて第2種の方言なまり共通語のディベロップメントデータを認識することにより第2混同行列を生成し、当該第2混同行列に応じて前記第2方言なまり共通語モデルを前記一時マージモデルの中にマージして認識モデルを得る工程と、
を含むことを特徴とする複数の方言を背景とする共通語音声認識のモデリング方法。 - xで被認識音声の観測特徴ベクター、sで前記標準的共通語モデルにおける隠れマルコフ状態、d1で前記第1方言なまり共通語モデルにおける隠れマルコフ状態、d2で前記第2方言なまり共通語モデルにおける隠れマルコフ状態、を表す場合、下記の数式で与えられる前記一時マージモデルにおける確率密度関数は
p’(x|s)=λ1p(x|s)+(1−λ1)p(x|d1)p(d1|s)
であり、
その中で、λ1は線形補間係数であり、0<λ1<1を満たし、
前記認識モデルの確率密度関数は
- 複数の方言を背景とする共通語音声認識のモデリングプログラムであって、コンピュータに
(1)標準的共通語のトレーニングデータに基づいてトライフォンによる標準的共通語モデルを生成し、第1種の方言なまり共通語のディベロップメントデータに基づいてモノフォンによる第1方言なまり共通語モデルを生成し、第2種の方言なまり共通語のディベロップメントデータに基づいてモノフォンによる第2方言なまり共通語モデルを生成する機能と、
(2)前記標準的共通語モデルを用いて第1種の方言なまり共通語のディベロップメントデータを認識することにより第1混同行列を生成し、当該第1混同行列に応じて前記第1方言なまり共通語モデルを前記標準的共通語モデルの中にマージして一時マージモデルを得る機能と、
(3)前記一時マージモデルを用いて第2種の方言なまり共通語のディベロップメントデータを認識することにより第2混同行列を生成し、当該第2混同行列に応じて前記第2方言なまり共通語モデルを前記一時マージモデルの中にマージして認識モデルを得る機能と、
を実行させることを特徴とするコンピュータプログラム。 - n種(nは2以上の自然数)の方言を背景とする共通語音声認識のモデリング方法であって、
(1)標準的共通語のトレーニングデータに基づいてトライフォンによる標準的共通語モデルを生成し、第1〜n種の方言なまり共通語のそれぞれに対し、そのディベロップメントデータに基づいてモノフォンによる第1〜第n方言なまり共通語モデルを生成する工程と、
(2)前記標準的共通語モデルを用いて第1種の方言なまり共通語のディベロップメントデータを認識することにより第1混同行列を生成し、当該第1混同行列に応じて第1方言なまり共通語モデルを前記標準的共通語モデルの中にマージして第1一時マージモデルを得る工程と、
(3)第(i−1)一時マージモデル(iは2<i<nを満たす自然数)を用いて第i種の方言なまり共通語のディベロップメントデータを認識することにより第i混同行列を生成し、当該第i混同行列に応じて第i方言なまり共通語モデルを前記第(i−1)一時マージモデルの中にマージする動作を、i=2からi=nまで順に繰り返すことにより、認識モデルを得る工程と、
を含むことを特徴とする複数の方言を背景とする共通語音声認識のモデリング方法。 - n種(nは2以上の自然数)の方言を背景とする共通語音声認識のモデリングプログラムであって、コンピュータに
(1)標準的共通語のトレーニングデータに基づいてトライフォンによる標準的共通語モデルを生成し、第1〜n種の方言なまり共通語のそれぞれに対し、そのディベロップメントデータに基づいてモノフォンによる第1〜第n方言なまり共通語モデルを生成する機能と、
(2)前記標準的共通語モデルを用いて第1種の方言なまり共通語のディベロップメントデータを認識することにより第1混同行列を生成し、当該第1混同行列に応じて第1方言なまり共通語モデルを前記標準的共通語モデルの中にマージして第1一時マージモデルを得る機能と、
(3)第(i−1)一時マージモデル(iは2<i<nを満たす自然数)を用いて第i種の方言なまり共通語のディベロップメントデータを認識することにより第i混同行列を生成し、当該第i混同行列に応じて第i方言なまり共通語モデルを前記第(i−1)一時マージモデルの中にマージする動作を、i=2からi=nまで順に繰り返すことにより、認識モデルを得る機能と、
を実行させることを特徴とするコンピュータプログラム。 - 請求項3または5に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
- 複数の方言を背景とする共通語音声認識のモデリングシステムであって、モデル生成ユニットと、当該モデル生成ユニット全体の動作を制御する制御ユニットとを備え、
前記モデル生成ユニットは、
標準的共通語のトレーニングデータが記憶されている標準的共通語トレーニングデータベースと、
第1、第2種の方言なまり共通語のディベロップメントデータがそれぞれ記憶されている第1、第2ディベロップメントデータベースと、
前記標準的共通語トレーニングデータベースに記憶されている標準的共通語のトレーニングデータに基づいて、トライフォンによる標準的共通語モデルを生成するための標準的共通語モデル生成部と、
前記第1、第2ディベロップメントデータベースにそれぞれ記憶されている第1、第2種の方言なまり共通語のディベロップメントデータに基づいて、モノフォンによる第1、第2方言なまり共通語モデルを生成するための第1、第2モデル生成部と、
前記標準的共通語モデル生成部により生成された標準的共通語モデルを用いて、前記第1ディベロップメントデータベースに記憶されている第1種の方言なまり共通語のディベロップメントデータを認識することにより、第1混同行列を生成するための第1混同行列生成部と、
前記第1混同行列生成部により生成された第1混同行列に応じて、前記第1モデル生成部により生成された第1方言なまり共通語モデルを、前記標準的共通語モデル生成部により生成された標準的共通語モデルの中にマージして一時マージモデルを生成するための第1モデルマージ部と、
前記第1モデルマージ部により生成された一時マージモデルを用いて、前記第2ディベロップメントデータベースに記憶されている第2種の方言なまり共通語のディベロップメントデータを認識することにより、第2混同行列を生成するための第2混同行列生成部と、
前記第2混同行列生成部により生成された第2混同行列に応じて、前記第2モデル生成部により生成された第2方言なまり共通語モデルを、前記第1モデルマージ部により生成された一時マージモデルの中にマージして認識モデルを生成するための第2モデルマージ部と
を備えることを特徴とする複数の方言を背景とする共通語音声認識のモデリングシステム。 - xで被認識音声の観測特徴ベクター、sで前記標準的共通語モデルにおける隠れマルコフ状態、d1で前記第1方言なまり共通語モデルにおける隠れマルコフ状態、d2で前記第2方言なまり共通語モデルにおける隠れマルコフ状態、を表す場合、下記の数式で与えられる前記一時マージモデルにおける確率密度関数は
p’(x|s)=λ1p(x|s)+(1−λ1)p(x|d1)p(d1|s)
であり、
その中で、λ1は線形補間係数であり、0<λ1<1を満たし、
前記認識モデルの確率密度関数は
- 請求項7又は8に記載の第1と第2モデル生成部、第1と第2混同行列生成部、第1と第2モデルマージ部のうち少なくとも一組は、単一の構成として時間分割で利用されることを特徴とする複数の方言を背景とする共通語音声認識のモデリングシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008102253540A CN101393740B (zh) | 2008-10-31 | 2008-10-31 | 一种计算机多方言背景的汉语普通话语音识别的建模方法 |
CN200810225354.0 | 2008-10-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010107982A JP2010107982A (ja) | 2010-05-13 |
JP4951664B2 true JP4951664B2 (ja) | 2012-06-13 |
Family
ID=40494003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009248013A Active JP4951664B2 (ja) | 2008-10-31 | 2009-10-28 | コンピュータによる複数の方言を背景とする共通語音声認識のモデリング方法及びシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8712773B2 (ja) |
JP (1) | JP4951664B2 (ja) |
CN (1) | CN101393740B (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010125736A1 (ja) * | 2009-04-30 | 2010-11-04 | 日本電気株式会社 | 言語モデル作成装置、言語モデル作成方法、およびコンピュータ読み取り可能な記録媒体 |
CN101702314B (zh) * | 2009-10-13 | 2011-11-09 | 清华大学 | 基于语种对的鉴别式语种识别模型建立方法 |
TWI391915B (zh) * | 2009-11-17 | 2013-04-01 | Inst Information Industry | 語音變異模型建立裝置、方法及應用該裝置之語音辨識系統和方法 |
US8635067B2 (en) * | 2010-12-09 | 2014-01-21 | International Business Machines Corporation | Model restructuring for client and server based automatic speech recognition |
JP5703747B2 (ja) * | 2010-12-27 | 2015-04-22 | 富士通株式会社 | 音声認識装置,および音声認識プログラム |
US9235799B2 (en) | 2011-11-26 | 2016-01-12 | Microsoft Technology Licensing, Llc | Discriminative pretraining of deep neural networks |
US9390085B2 (en) * | 2012-03-23 | 2016-07-12 | Tata Consultancy Sevices Limited | Speech processing system and method for recognizing speech samples from a speaker with an oriyan accent when speaking english |
US9009049B2 (en) * | 2012-06-06 | 2015-04-14 | Spansion Llc | Recognition of speech with different accents |
US9966064B2 (en) * | 2012-07-18 | 2018-05-08 | International Business Machines Corporation | Dialect-specific acoustic language modeling and speech recognition |
JP6110945B2 (ja) * | 2012-08-24 | 2017-04-05 | インタラクティブ・インテリジェンス・インコーポレイテッド | 自動音声認識システムにおける選択的にバイアスをかけられた線形判別分析の方法及びシステム |
EP2736042A1 (en) * | 2012-11-23 | 2014-05-28 | Samsung Electronics Co., Ltd | Apparatus and method for constructing multilingual acoustic model and computer readable recording medium for storing program for performing the method |
US9842585B2 (en) * | 2013-03-11 | 2017-12-12 | Microsoft Technology Licensing, Llc | Multilingual deep neural network |
CN103578467B (zh) * | 2013-10-18 | 2017-01-18 | 威盛电子股份有限公司 | 声学模型的建立方法、语音辨识方法及其电子装置 |
CN103578471B (zh) * | 2013-10-18 | 2017-03-01 | 威盛电子股份有限公司 | 语音辨识方法及其电子装置 |
CN103680493A (zh) * | 2013-12-19 | 2014-03-26 | 百度在线网络技术(北京)有限公司 | 区分地域性口音的语音数据识别方法和装置 |
CN103839546A (zh) * | 2014-03-26 | 2014-06-04 | 合肥新涛信息科技有限公司 | 一种基于江淮语系的语音识别系统 |
US10127927B2 (en) | 2014-07-28 | 2018-11-13 | Sony Interactive Entertainment Inc. | Emotional speech processing |
US9961200B1 (en) | 2017-03-28 | 2018-05-01 | Bank Of America Corporation | Derived intent collision detection for use in a multi-intent matrix |
KR102329127B1 (ko) * | 2017-04-11 | 2021-11-22 | 삼성전자주식회사 | 방언을 표준어로 변환하는 방법 및 장치 |
CN107170454B (zh) * | 2017-05-31 | 2022-04-05 | Oppo广东移动通信有限公司 | 语音识别方法及相关产品 |
CN107331388A (zh) * | 2017-06-15 | 2017-11-07 | 重庆柚瓣科技有限公司 | 一种基于养老机器人的方言收集系统 |
CN109741731B (zh) * | 2019-01-08 | 2020-12-29 | 国家计算机网络与信息安全管理中心 | 一种语种训练数据获得方法及装置 |
CN110310628B (zh) * | 2019-06-27 | 2022-05-20 | 百度在线网络技术(北京)有限公司 | 唤醒模型的优化方法、装置、设备及存储介质 |
CN110808035B (zh) * | 2019-11-06 | 2021-11-26 | 百度在线网络技术(北京)有限公司 | 用于训练混合语言识别模型的方法和装置 |
CN110827803A (zh) * | 2019-11-11 | 2020-02-21 | 广州国音智能科技有限公司 | 方言发音词典的构建方法、装置、设备及可读存储介质 |
CN110910865B (zh) * | 2019-11-25 | 2022-12-13 | 秒针信息技术有限公司 | 语音转换方法和装置、存储介质及电子装置 |
CN111445898B (zh) * | 2020-03-17 | 2022-05-17 | 科大讯飞股份有限公司 | 语种识别方法、装置、电子设备和存储介质 |
CN112233653B (zh) * | 2020-12-10 | 2021-03-12 | 北京远鉴信息技术有限公司 | 多方言口音普通话语音识别模型训练方法、装置及设备 |
CN113593534B (zh) * | 2021-05-28 | 2023-07-14 | 思必驰科技股份有限公司 | 针对多口音语音识别的方法和装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5872996A (ja) * | 1981-10-28 | 1983-05-02 | 電子計算機基本技術研究組合 | 単語音声認識方法 |
JPH02173699A (ja) * | 1988-12-27 | 1990-07-05 | Oki Electric Ind Co Ltd | 音声認識装置 |
JP3256979B2 (ja) * | 1991-04-26 | 2002-02-18 | 日本電信電話株式会社 | 音響モデルの入力音声に対する尤度を求める方法 |
US5865626A (en) * | 1996-08-30 | 1999-02-02 | Gte Internetworking Incorporated | Multi-dialect speech recognition method and apparatus |
US6963837B1 (en) * | 1999-10-06 | 2005-11-08 | Multimodal Technologies, Inc. | Attribute-based word modeling |
CA2387079C (en) * | 1999-10-19 | 2011-10-18 | Sony Electronics Inc. | Natural language interface control system |
US20080147404A1 (en) * | 2000-05-15 | 2008-06-19 | Nusuara Technologies Sdn Bhd | System and methods for accent classification and adaptation |
US7319958B2 (en) * | 2003-02-13 | 2008-01-15 | Motorola, Inc. | Polyphone network method and apparatus |
JP4571624B2 (ja) * | 2003-03-26 | 2010-10-27 | 本田技研工業株式会社 | ローカルモデルを用いた話者認識 |
US7315811B2 (en) * | 2003-12-31 | 2008-01-01 | Dictaphone Corporation | System and method for accented modification of a language model |
US7533018B2 (en) * | 2004-10-19 | 2009-05-12 | Motorola, Inc. | Tailored speaker-independent voice recognition system |
-
2008
- 2008-10-31 CN CN2008102253540A patent/CN101393740B/zh not_active Expired - Fee Related
-
2009
- 2009-10-28 JP JP2009248013A patent/JP4951664B2/ja active Active
- 2009-10-29 US US12/608,191 patent/US8712773B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN101393740A (zh) | 2009-03-25 |
CN101393740B (zh) | 2011-01-19 |
US20100121640A1 (en) | 2010-05-13 |
JP2010107982A (ja) | 2010-05-13 |
US8712773B2 (en) | 2014-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4951664B2 (ja) | コンピュータによる複数の方言を背景とする共通語音声認識のモデリング方法及びシステム | |
US8027834B2 (en) | Technique for training a phonetic decision tree with limited phonetic exceptional terms | |
Park et al. | Improved neural network based language modelling and adaptation. | |
CN108711422A (zh) | 语音识别方法、装置、计算机可读存储介质和计算机设备 | |
CN103310784A (zh) | 文本到语音的方法和系统 | |
JP2015102806A (ja) | 統計的音響モデルの適応方法、統計的音響モデルの適応に適した音響モデルの学習方法、ディープ・ニューラル・ネットワークを構築するためのパラメータを記憶した記憶媒体、及び統計的音響モデルの適応を行なうためのコンピュータプログラム | |
CN102201235A (zh) | 发音词典的构建方法和系统 | |
JPH11242494A (ja) | 話者適応化装置と音声認識装置 | |
Yu et al. | Context adaptive training with factorized decision trees for HMM-based statistical parametric speech synthesis | |
JP5753769B2 (ja) | 音声データ検索システムおよびそのためのプログラム | |
CN111627428B (zh) | 构建压缩的语音识别模型的方法 | |
Ferrer et al. | Spoken language recognition based on senone posteriors. | |
JP7143677B2 (ja) | 単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム | |
WO2019146754A1 (ja) | 質問応答システムの訓練データの作成方法及び質問応答システムの訓練方法 | |
Rouvier et al. | Studying squeeze-and-excitation used in CNN for speaker verification | |
Liu et al. | Investigation of acoustic units for LVCSR systems | |
JP5295037B2 (ja) | ConditionalRandomFieldsもしくはGlobalConditionalLog−linearModelsを用いる学習装置及びその学習装置におけるパラメータ学習方法、プログラム | |
JP2019078857A (ja) | 音響モデルの学習方法及びコンピュータプログラム | |
Lozano-Diez et al. | Analysis of DNN-based Embeddings for Language Recognition on the NIST LRE 2017. | |
Wester et al. | Pronunciation variation in ASR: Which variation to model? | |
Pietquin et al. | Training Bayesian networks for realistic man-machine spoken dialogue simulation | |
Li et al. | Research on HMM-based speech retrieval algorithm | |
KR102637341B1 (ko) | 음성 생성 방법 및 장치 | |
Zeng et al. | End-to-End Real-World Polyphonic Piano Audio-to-Score Transcription with Hierarchical Decoding | |
JP3881970B2 (ja) | 知覚試験用音声データセット作成装置、コンピュータプログラム、音声合成用サブコスト関数の最適化装置、及び音声合成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20101126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101214 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120228 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120312 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150316 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4951664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |