JP5901001B1 - 音響言語モデルトレーニングのための方法およびデバイス - Google Patents

音響言語モデルトレーニングのための方法およびデバイス Download PDF

Info

Publication number
JP5901001B1
JP5901001B1 JP2015555551A JP2015555551A JP5901001B1 JP 5901001 B1 JP5901001 B1 JP 5901001B1 JP 2015555551 A JP2015555551 A JP 2015555551A JP 2015555551 A JP2015555551 A JP 2015555551A JP 5901001 B1 JP5901001 B1 JP 5901001B1
Authority
JP
Japan
Prior art keywords
word
class label
segmentation data
word segmentation
language model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015555551A
Other languages
English (en)
Other versions
JP2016513269A (ja
Inventor
ドゥリン・ルウ
ルウ・リ
フェン・ラオ
ボ・チェン
リ・ルウ
シャン・ジャン
エリュウ・ワン
シュアイ・ユエ
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Application granted granted Critical
Publication of JP5901001B1 publication Critical patent/JP5901001B1/ja
Publication of JP2016513269A publication Critical patent/JP2016513269A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • G10L15/05Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering

Abstract

音響言語モデルをトレーニングする方法およびデバイスは、単語クラスラベルを含まない初期単語分割データを得るために、単語クラスラベルを含まない初期言語モデルを使用して、トレーニングコーパス内のトレーニングサンプルに対して単語分割を行うステップと、単語クラスラベルを含む第1の単語分割データを得るために、単語クラスラベルを含まない初期単語分割データに対して単語クラス置換を実行するステップと、単語クラスラベルを含む第1の言語モデルをトレーニングするために、単語クラスラベルを含む第1の単語分割データを使用するステップと、単語クラスラベルを含む第2の単語分割データを得るように、トレーニングコーパス内のトレーニングサンプルに対して単語分割を行うために、単語クラスラベルを含む第1の言語モデルを使用するステップと、1つまたは複数の所定の基準を満たす第2の単語分割データに従って、音響言語モデルをトレーニングするために、単語クラスラベルを含む第2の単語分割データを使用するステップとを含む。

Description

関連出願
本出願は、その全体が参照により本明細書に組み込まれている、2013年2月1日に出願した、「Method and Device for Training Acoustic Language Models」と題する中国特許出願第CN201310040085.1号の優先権を主張するものである。
本開示は、自然言語処理技術の分野に関し、特に、音響言語モデルをトレーニングするための方法およびデバイスに関する。
自然言語は、人間のためのコミュニケーション方法の最も便利で、効果的で、迅速な形態であるので、コンピュータアプリケーションがますます一般的になるにつれて、コンピュータとの直接の自然言語コミュニケーションに対するユーザの期待が増加している。音声認識技術は、コンピュータベースの認識および理解プロセスによって、人間の音声信号を対応するテキストに変更するための技術である。言語モデルは、音声認識の精度を改善する重要な役割を演じる。
ハードウェアの性能およびソフトウェアアルゴリズムの制限のために、現在の音声認識システムは、言語モデルのサイズに厳しい制限を課す。対応して、言語モデルのサイズは、言語モデルによってカバーされる語彙サイズの増加に伴って、指数関数的に増大する。これらの2つの理由のために、音声認識システムの利用可能な語彙サイズは、無制限に増大され得ない。現在の技術の状態の下では、音声認識システムの用語集容量の上限は、10万をわずかに超える。用語集外の単語に関して、音声認識システムの認識精度は、大幅に低下することになる。
さらに、通常の音声環境では、低い使用頻度の数百万の単語が存在する。例えば、これらは、短時間の間だけ関連性のある単語(例えば、テレビ番組または映画の名前)、特定の地理的領域にのみ関連性のある単語(例えば、地元のレストランの名前)、または、特定の専門分野にだけ現れる単語(例えば、専門用語または業界用語)、などであり得る。これらおよび他の理由のために、各単語が非常に低い統計的有意性を有する大量の低頻度語が存在するという現象が存在する。
したがって、言語モデルのサイズを大幅に増加させることなく、または、その計算精度を損なうことなく、言語モデルの語彙範囲を拡大する方法の課題を解決するための緊急の必要性が存在する。
本開示は、言語モデルの語彙範囲を拡大し、それによって、音声認識システムの認識精度を改善する、音声認識のための音響言語モデルをトレーニングするための方法およびデバイスを提案する。
一態様では、音響言語モデルをトレーニングする方法は、1つまたは複数のプロセッサとメモリとを有するデバイスで、単語クラスラベルを含まない初期単語分割データを得るために、単語クラスラベルを含まない初期言語モデルを使用して、トレーニングコーパス内のトレーニングサンプルに対して単語分割を行うステップと、単語クラスラベルを含む第1の単語分割データを得るために、単語クラスラベルを含まない初期単語分割データに対して単語クラス置換を実行するステップと、単語クラスラベルを含む第1の言語モデルをトレーニングするために、単語クラスラベルを含む第1の単語分割データを使用するステップと、単語クラスラベルを含む第2の単語分割データを得るように、トレーニングコーパス内のトレーニングサンプルに対して単語分割を行うために、単語クラスラベルを含む第1の言語モデルを使用するステップと、1つまたは複数の所定の基準を満たす第2の単語分割データに従って、音響言語モデルをトレーニングするために、単語クラスラベルを含む第2の単語分割データを使用するステップとを含む。
いくつかの実施形態では、音響言語モデルをトレーニングするためのシステムは、1つまたは複数のプロセッサと、命令が記憶されているメモリとを含み、命令は、1つまたは複数のプロセッサによって実行されると、プロセッサに上記の方法を実行させる。
上記の技術的解決策によれば、いくつかの実施形態は、トレーニングコーパス内の言語サンプルに対して単語分割を実行するために、単語クラスラベルを含まない初期言語モデルを利用し、それによって、単語クラスラベルを含む初期単語分割データを得るステップと、初期単語分割データ内の少なくともいくつかの単語に対して単語クラス置換を実行し、それによって、単語クラスラベルを含む第1の単語分割データを得るステップと、第1の単語分割データを使用して、単語クラスラベルを含む第1の言語モデルをトレーニングし、トレーニングコーパス内のトレーニングサンプルに単語分割を実行するために、第1の言語モデルを利用し、それによって、単語クラスラベルを含む第2の単語分割データを得るステップと、音響言語モデルをトレーニングするために、単語クラスラベルを含む第2の単語分割データを利用するステップとを含む。したがって、上記の解決策の実施形態は、単語クラスラベルを含む単語分割データに基づいて、音響言語モデルのトレーニングを実現する。単語クラスラベルは、トレーニング言語サンプル内のそのクラスに属するすべての単語(例えば、エンティティ名)を置換するために使用され得、それによって、言語モデル内の総語彙数を減少させる。所与の単語クラスの特定の単語(例えば、特定のエンティティ名)に関連付けられた確率を計算するとき、言語モデル内のその所与の単語クラスに関連付けられたパラメータが、計算に使用される。本解決策は、言語モデルの語彙範囲を拡大することができ、それによって、言語モデルの認識精度を改善する。加えて、本解決策は、音声認識システムの制限された用語集容量による、用語集外の単語に関する不十分な認識結果の問題に対処する。
本発明の上述した特徴および利点、ならびにその追加の特徴および利点は、図面と併せたときに好ましい実施形態の詳細な説明の結果として、以下でより明確に理解されるであろう。
いくつかの実施形態による音響言語モデルトレーニング方法のフロー図である。 いくつかの実施形態による音響言語モデルトレーニング方法のフローチャート図である。 いくつかの実施形態による音響言語モデルトレーニング方法のフローチャート図である。 いくつかの実施形態による音響言語モデルトレーニングの全体の概要処理フローである。 いくつかの実施形態による音響言語モデルトレーニングのための装置のブロック図である。 いくつかの実施形態による音響言語モデルトレーニングのための装置のブロック図である。
図面のいくつかの図を通して、同じ参照番号は、対応する部分を指す。
ここで、実施形態を詳細に参照し、これらの実施形態の例は、添付図面に示される。以下の詳細な説明では、本明細書で提示される主題の完全な理解を提供するために、多数の特定の詳細が記載される。しかし、主題は、これらの特定の詳細なしに実施され得ることが、当業者には明らかであろう。他の例では、周知の方法、手順、構成要素、および回路は、実施形態の態様を不必要に曖昧にしないように、詳細には説明されていない。
本開示の目的、技術的スキーム、および利点をより明確に理解するために、本開示は、添付図面と組み合わせて以下に詳細に説明される。
いくつかの実施形態では、語彙の以下の特性の知識が考慮される。
(1)多数の低頻度単語は、人、本、映画、場所、および他の名前付きエンティティの名前のような、エンティティ名である。
(2)同じ単語クラスのエンティティ名のコンテキスト情報は、類似性を示し、例えば、同じ単語クラスの異なるエンティティ名が、同じテキストの文脈(例えば、文書中の周囲のテキスト)中に配置された場合、文章の表意文字の能力(ideographic ability)は、ほとんど影響を受けない。例えば、「I like watching the cartoon 'Crayon Shin-Chan'」という文章、および「I like watching the cartoon 'Chibi Maruko Chan'」という文章は、かなり類似した表意文字の能力を有する。
上記の特性に従って、本開示の実施形態は、単語クラスによる単語分割に基づいて音響言語モデルをトレーニングするための戦略を提案する。
本明細書で説明するように、単語クラスは、それらのテキストのコンテキストの統計的特徴(例えば、すべての所与のテキストのコンテキスト中の単語の出現確率)に従って同様である単語(例えば、エンティティ名)を含むセットを指す。
本明細書で説明するように、単語分割は、連続的な言語サンプル(例えば、テキスト文字列)を一連の明確な意味の単位(例えば、単語)に分割するプロセスを指す。例えば、中国語では、漢字またはピンインを含むテキスト文字列は、単語間に自然の区切り文字を含まず、テキスト文字列内の意味の単位の間の分割は、明らかではない。したがって、テキスト文字列の意味を解釈するために、文字列は、各々がそれぞれの単語を表す一連のチャンクに分割される。
本明細書で説明するように、単語クラスラベリングまたは単語クラス置換は、言語サンプル(例えば、トレーニング言語サンプル)内の単語(例えば、エンティティ名)をその対応する単語クラスラベルで代用または置換するプロセスを指す。例えば、「I like watching the cartoon 'Crayon Shin-Chan'」という文字列は、単語クラス置換によって「I like watching the cartoon <cartoon name>」という別の文字列に変換され得、「Crayon Shin-Chan」という単語は、「<cartoon name>」というそのクラスラベルで置換される。単語クラス置換は、文章の複数の単語に対して実行され得る。単語クラス置換の結果は、より一般的な文章であり、単語クラス置換によって同じ一般的な文章をもたらすトレーニングサンプルに関連付けられた統計値は、一般的な文章に関連付けられた一般的な統計値に組み合わされ得る。一般的な文章が、言語モデルのトレーニングで使用されるとき、もたらされる言語モデルは、単語クラスラベルを含む言語モデルである。単語クラスラベルを含む一般的な文章を使用するトレーニングは、特定の低頻度単語(例えば、それらの対応するクラスラベルで置き換えられている単語)を含むトレーニングサンプルに関するデータスパースネス(data sparseness)の問題に対処する。
本明細書で説明するように、単語クラスラベルに基づく単語分割は、単語クラスラベルが候補分割結果の確率経路で表される、言語サンプルを分割する方法を指し、単語クラスが最高の経路に現れる場合、特定の単語(例えば、エンティティ名)の単語クラスラベルは、分割結果の対応する位置に現れる。例えば、複数の可能な分割経路の中で最も高い確率を有する経路が「[word i][word j][<word class p>][word k]」である場合、分割結果は、「[word i][word j][<word class p>][word k]」である。この分割結果は、「[word i][word j][string x][word k]」というフォームのすべての文章に対して有効であり、ここで[string x]は、<word class p>という単語クラス内の単語である。
本明細書で説明するように、言語モデルは、所与の過去の単語列に対して、例えばnグラム統計および平滑化アルゴリズムに基づいて、所与の過去の単語列に続く単語の出現確率を与える確率モデルを指す。
言語モデルは、しばしば、音声認識、機械翻訳、品詞タグ付け、構文解析、情報検索、などのような多くの自然言語処理の局面で使用される。単語および文章の長さは、任意であり得るので、(例えば、言語モデルトレーニング中のデータスパースネスの問題のため)トレーニングされた言語モデルによって十分にカバーされない、まれなまたは隠れた文字列が存在する可能性がある。これは、コーパス内の文字列の確率の推定を困難にし、ほぼ平滑なNグラムモデルを使用する理由の1つでもある。
本開示のいくつかの実施形態によれば、単語クラスラベルは、トレーニングコーパスのトレーニングサンプル(例えば、テキストサンプル)内の対応する単語クラスのすべての単語(例えば、エンティティ名)を置換するために使用される。したがって、同じ単語クラスの多数の単語(例えば、エンティティ名)が、言語モデル内で同じ単語クラスラベルとして表されるので、言語モデルの語彙サイズは、言語モデルの語彙範囲を犠牲にすることなく、低減され得る。同じ単語クラスの単語(例えば、エンティティ名)に関する確率を計算するとき、言語モデル内の単語クラスラベルのパラメータが使用される。トレーニングテキスト内に現れなかった単語(例えば、エンティティ名)に関して、この種類の単語(例えば、エンティティ名)を表す単語クラスラベルが言語モデル内に存在する限り、これらの隠れた単語(例えば、隠れたエンティティ名)に関連付けられた確率分布を近似するために、単語クラスラベルに関連付けられた確率分布は、考慮され得る。実際には、単語クラスラベルを含む言語モデルによって、(例えば、出現確率が計算され得る単語の総数によって測定される)言語モデルの語彙範囲は、言語モデルに実際に含まれる語彙サイズおよび単語クラス量よりもはるかに大きくすることができる。そのように、音声認識システムの制限された用語集容量によって引き起こされる、用語集の範囲を超える語彙に関する不十分な認識性能の問題は、対処され得る。
図1は、いくつかの実施形態による音響言語モデルトレーニング方法のフローチャートである。
図1に示すように、方法は、以下を含む。
ステップ101:単語クラスラベルを含まない単語分割データを得るために、単語クラスラベルを含まない言語モデルを使用することによって、トレーニングコーパス内の言語サンプル(例えば、テキスト文字列)に対する単語分割を行う。
ここで、単語クラスラベルを含まない言語モデルを使用することによってトレーニングコーパスの単語分割を行う前に、いくつかの好ましい実施形態では、トレーニングコーパスの正規化処理が実行される。正規化処理は、オプションで、(例えば、大文字と小文字との間の)大文字小文字の変換、(例えば、Unicodeと他の符号化との間の)変換の符号化、時間フォーマットの統一、などを含む。
具体的には、様々なタイプのトークナイザ(例えば、純粋な単語を含み、単語クラスラベルを含まない言語サンプルのみでトレーニングされた従来の言語モデル)は、単語クラスラベルなしの単語分割結果を得るように、トレーニングコーパスに対する単語分割を行うために、初期言語モデルとして、すなわち、単語クラスラベルを含まない言語モデルとして使用され得る。
いくつかの実施形態では、単語クラスラベルなしの言語モデルは、確率統計理論に基づく数学的モデルであり得、中国語の文章に関連付けられた確率分布を計算するためのものであり得る。言語モデルは、正しい文章(例えば、正しい単語の分割を有する文章)を出力する確率を、誤った文章を出力する確率よりも高くするように構成される。例えば、中国語の文章
Figure 0005901001
に関して、統計言語モデルでは、中国語の文章は、
Figure 0005901001
のようないくつかの分離した単語に分解または分割され得る。
m(mは、自然数)の単語を含む中国語の文章、例えば、
Figure 0005901001
に関して、ベイズ理論によれば、この中国語の文章の確率(この文章が正しい出力である確率)は、1つよりも多くの単語を含む条件付き確率の算術積に分解され得、すなわち、
Figure 0005901001
となる。
上記の式では、Wiは、中国語の文章S中に含まれるi番目の単語であり、p(wi/w1w2...wi-1)は、文章w1w2...wm中に現れる単語wiの条件付き確率である。
上記の式から、条件付き確率p(wi/w1w2...wi-1)のパラメータ空間は、変数iの増加に伴って指数関数的に増大するようになることがわかる。変数iが大きいとき、利用可能なトレーニングコーパスの制限されたサイズでは、確率値p(wi/w1w2...wi-1)は、正確に推定され得ない。
トレーニングコーパスは、統計的方法を使用して大量のトレーニングテキストから特定のカテゴリに従って編成および形成されている、順序付けられたテキストサンプルを含むセットである。トレーニングコーパスは、バッチ内のコンピュータによって処理され得る。したがって、現在の実際的な言語モデルのモデリング方法では、条件付き確率p(wi/w1w2...wi-1)は、様々な程度に単純化される。これらのモデリング方法から出現するのは、標準的なNグラム言語モデルのモデリング方法である。
標準的なNグラム言語モデルは、現在最も一般的に使用される統計的言語モデルの1つである。いくつかの実施形態では、標準的なNグラム言語モデルは、中国語の文章を、マルコフ性を満たすマルコフ列とみなす。具体的には、標準的なNグラム言語モデルは、統計的言語モデルにおける条件付き確率p(wi/w1w2...wi-1)に関する以下の基本的な仮説をする。
(1)制限された履歴仮説:現在の入力文章中の単語の条件付き確率は、中国語の文章全体の代わりに、単語の前のn-1の単語にのみ関連し、ここで、nは、予め設定された自然数である。
(2)時間均一性仮説:現在の単語の条件付き確率は、中国語の文章中のその位置に関連しない。
上記2つの仮説に基づいて、標準的なNグラム言語モデルの下での文章に関する確率計算の式は、次のように単純化され得る。
Figure 0005901001
このように、上記の2つの仮説に基づいて、標準的な統計的言語モデルにおける条件付き確率p(wi/w1w2...wi-1)は、標準的なNグラム言語モデルにおける条件付き確率p(wi/wi-n+1wi-n+2...wi-1)に単純化される。確率計算の後者の式では、現在の単語に関連する過去の単語の数は、標準的な統計的言語モデルでの変数i-1ではなく、定数n-1に固定される。したがって、言語モデル全体に関するパラメータ空間のサイズは減少し、Nグラム確率の値は、現在利用可能なトレーニングコーパスに基づいて正確に推定され得る。その結果、標準的なNグラム言語モデルは、合理的に実施され得る。
標準的なNグラム言語モデルでは、条件付き確率p(wi/wi-n+1wi-n+2...wi-1)の値の推定は、最尤推定の方法を採用し、推定式は、以下の通りである。
Figure 0005901001
上記の式では、c(wi-n+1...Wi-1Wi)は、標準的なNグラム言語モデルのトレーニングコーパスに出現する単語列wi-n+1...Wi-1Wi(文章中の単語のサブ列)の頻度を表す。
いくつかの実施形態では、単語分割は、単語クラスラベルを含まない単語分割データを得るために、標準的なNグラム言語モデルを使用して行われる。
ステップ102:単語クラスラベルを含む第1の単語分割データを得るために、単語クラスラベルを含まない単語分割データに対して単語クラス置換を実行する。
ここで、分類用語集は、事前に確立され得、この分類用語集内の語彙は、単語クラスに従って分類される。いくつかの実施形態では、単語クラスラベルを含む単語分割データ(例えば、w1/w2/…/wi/…/wm)内の識別された単語wiに関して、同一の単語(例えば、wi)は、予め確立された分類用語集から検索され得、検索された単語のそれぞれの単語クラスラベル(例えば、<labelx>)は、単語分割データ内の単語に関するそれぞれの単語クラスラベルとして設定される(例えば、変更された単語分割データw1/w2/…/<labelx>/…/wmをもたらす)。
Figure 0005901001
Figure 0005901001
Figure 0005901001
いくつかの実施形態では、単語クラスラベルを含まない単語分割データ内の分割された単語と同じである既知の単語が識別され、予め確立された分類用語集から検索された後、方法は、以下を含む。
分類用語集から検索された既知の単語の単語長が、一致する単語長の予め設定されたしきい値を超えるかどうかを判断し、そうである場合、検索された既知の単語の単語クラスラベルを、単語クラスラベルを含まない単語分割データ内の分割された単語の単語クラスラベルとして設定する。例えば、いくつかの実施形態では、予め設定されたしきい値単語長は、2文字である。いくつかの実施形態では、予め設定されたしきい値単語長は、1文字である。いくつかの実施形態では、予め設定されたしきい値単語長は、3文字である。分類用語集から検索された既知の単語の単語長が、一致する単語長の予め設定されたしきい値を超えない場合、検索された既知の単語の単語クラスラベルは、単語分割データ内の分割された単語を置換するために使用されない。いくつかの実施形態では、2つ以上の連続する分割された単語は、分類用語集内の十分な長さの一致する既知の単語を検索するときに、単一の分割された単語として結合され、一致が見つかった場合、検索された既知の単語の単語クラスラベルは、単語分割データ内で、2つ以上の連続する分割された単語を全体として置換するために使用される。いくつかの実施形態では、検索された単語の単語長をチェックする代わりに、分割された単語の単語長は、分類用語集を検索するために使用される前にチェックされ、予め設定されたしきい値長よりも長い分割された単語のみが、分類用語集を検索するために使用される。
ステップ103:単語クラスラベルを含む言語モデルをトレーニングするために、単語クラスラベルを含む第1の単語分割データを使用し、単語クラスラベルを含む第2の単語分割データを得るように、トレーニングコーパスの単語分割を行うために、単語クラスラベルを含む言語モデルを使用する。
いくつかの実施形態では、単語クラスラベルを含む第1の単語分割データは、少なくとも1つの分割された単語がその対応する単語クラスラベルに置換されている分割されたトレーニングサンプル(例えば、中国語の文章)を含む。いくつかの実施形態では、第1の単語分割データ内のいくつかの分割されたトレーニングサンプルは、1つまたは複数の元の分割された単語の中に1つまたは複数の単語クラスラベルを含むことができる。いくつかの実施形態では、ステップ102での単語クラス置換は、いくつかの異なる段階で、1つまたは複数の所定の基準に従って実行される。いくつかの実施形態では、単語クラス置換プロセスの各段階では、特定の単語(例えば、特定の長さ要件を満たす単語、特定のしきい値を上回る分割スコアを有する単語、特定の単語クラスの単語、など)のみが、それらの対応する単語クラスラベルによって置換される。
いくつかの実施形態では、単語クラスラベルを含む第1の単語分割データは、それぞれのトレーニングサンプル内の各単語クラスラベルがトレーニングサンプル内の単語と同様に処理されるように、Nグラム言語モデルのためのトレーニングサンプルとして使用される。元のトレーニングコーパスのトレーニングサンプル内の多くの単語は、ここでは、それらの対応する単語クラスラベルによって置換されるので、トレーニングコーパス内の固有のトレーニングサンプルの数は減少し、置換された単語の使用頻度は、ここでは、それらのそれぞれの単語クラスラベルの使用頻度に寄与する。したがって、単語クラスラベルを含む第1の単語分割データでトレーニングされて得られる言語モデルは、ステップ101で使用された初期の言語モデルよりも小さく、よりよい精度および語彙範囲を有する。いくつかの実施形態では、言語モデルをトレーニングする様々な方法が使用され得る。
いくつかの実施形態では、言語モデルが、単語クラスラベルを含む第1の単語分割データを使用してトレーニングされた後、言語モデルは、単語クラスラベルを含む文章を分割するために使用され得る。いくつかの実施形態では、トレーニングコーパス内の少なくともいくつかの単語が、分類用語集内で見つかったそれらの対応する単語クラスラベルで置換されるように、単語クラス置換が、元のトレーニングコーパス内のトレーニングサンプルに対して実行される。いくつかの実施形態では、特定の単語を、ステップ102で使用されたそれらの対応する単語クラスラベルで置換するかどうかを判断するために使用される同じ基準は、ここで、どの単語がそれらの単語クラスラベルで置換されるべきかを判断するために使用される。いくつかの実施形態では、単語クラス置換は、このステップで単語クラスラベルを含まない元のトレーニングコーパスのトレーニングサンプルに対して実行される必要はなく、代わりに、第1の単語分割データ(すなわち、ステップ102での単語クラス置換プロセスによっていくつかの分割された単語がそれらの対応する単語クラスラベルで置換されている、分割されたトレーニングサンプル)は、単語クラスラベルを含む第2の単語分割データを得るために、テスト入力として、単語クラスラベルを含む言語モデルに提供される。
ステップ104:音響言語モデルを得るために、単語クラスラベルを含む第2の単語分割データを使用する。
ステップ103で得られた単語クラスラベルを含む言語モデルは、単語クラスラベルを含む第1の分割データの統計的要約であるので、単語クラスラベルを含む第2の単語分割データは、単語クラスラベルを含む第1の分割データと異なる可能性が高い。ステップ103で得られた言語モデルがますます正確になる場合、単語クラスラベルを含む第2の単語分割データは、単語クラスラベルを含む第1の単語分割データにますます近似する可能性が高い。下記で説明するように、単語クラスラベルを含む言語モデルを取得し、単語クラスラベルを含む新たな分割データを得るために、トレーニングコーパスに対して分割化を実行し、新たな言語モデルを得るために、単語クラスラベルを含む新たな分割データで、単語クラスラベルを含む言語モデルをトレーニングするプロセスは、所定の収束条件が満たされるまで、1回または複数回の反復のために繰り返され得る。いくつかの実施形態では、所定の収束条件は、新たな言語モデルを使用して得られた分割データが、新たな言語モデルをトレーニングするために使用される分割データと十分に類似していることである。いくつかの実施形態では、新たな言語モデルを使用して得られた分割データと、新たな言語モデルをトレーニングするために使用される分割データとの間の類似性を測定するための基準は、単語分割データの2つのセット内の単語クラスラベルが同じ位置を有するかどうかである。
いくつかの実施形態では、音響言語モデルが単語クラスラベルを含む第2の単語分割データに基づいて得られた後、音響言語モデルは、入力音声を受信することと、音響言語モデルの使用によって入力音声を目的とした音声認識処理を実行することとを含む、入力を受信し、認識結果を提供する準備ができている。
いくつかの実施形態では、単語クラスラベルを含む第2の単語分割データが得られた後、方法は、さらに以下を含む。
単語クラスラベルを含む第1の単語分割データが、単語クラスラベルを含む第2の単語分割データと同じ単語クラスラベルの置換部分を有するかどうかを判断し、そうである場合、音響言語モデルを得るために、前記単語クラスラベルを含む第2の単語分割データを使用し、そうでない場合、単語クラスラベルを含む第2の単語分割データに対して単語クラス置換を実行する。
本開示のいくつかの好ましい実施形態では、プロセスフローは、反復的であり、すなわち、単語クラスラベルを含む言語モデルは、反復的な最適化プロセスを通過する。いくつかの実施形態では、プロセスは、以下を含む。
(1)第1に、トレーニングコーパスの正規化処理を実行する。
(2)次いで、トークナイザは、トレーニングコーパス内のトレーニングサンプルに単語分割を実行するために、初期言語モデル(例えば、単語クラスラベルを含まない言語モデル)を使用し、単語分割結果(例えば、単語クラスラベルを含まない単語分割データ)を得る。
(3)単語クラスラベルを含む単語分割結果を得るために、条件トリガルールのセットに基づいて、単語分割結果に対して単語クラス置換を行う。このとき、正解率を保証するために、条件トリガルールは、予め設定された確実性しきい値を満たすエンティティの名前の単語クラス置換を実行することができる。現在の反復で得られた単語クラスラベルを含む単語分割結果が、前の反復で得られた単語クラスラベルを含む単語分割結果と同じである場合、反復プロセスは、終了され得、後処理が開始され得る。
(4)言語モデルをトレーニングするために、単語クラスラベルを含む単語分割データを使用し、単語クラスラベルを含む言語モデルを得る。
(5)トークナイザは、ステップ(1)で得られたトレーニングコーパス内の単語の単語クラスラベルに従ってトレーニングコーパスの単語分割を実行し、単語クラスラベルを含む単語分割データを取得し、次の反復のステップ(3)を実行しに戻るために、単語クラスラベルを含む言語モデルを使用する。このとき、統計的言語モデルの使用は、トリガルールが満たさない単語クラス置換を作成する可能性があるので、かつ、単語分割結果の変化のため、トリガルールを満たすことができる元の位置は、もはや有効ではない可能性がある。そのように、ステップ(3)〜(5)の反復プロセスを継続するかどうかの決定は、言語モデルが十分に正確になり、2つの反復の分割結果が収束するまで、反復プロセスの継続をもたらすことができる。
その後、音声認識に適した後処理が、単語クラスラベルを含む単語分割結果に対して実行され得、単語分割結果は、単語クラスラベルを含む音響言語モデルをトレーニングするために使用され得る。
図1B〜図1Cは、いくつかの実施形態による音響言語モデルをトレーニングする上記方法のフローチャートである。
いくつかの実施形態では、1つまたは複数のプロセッサと、メモリとを有するデバイスで、単語クラスラベルを含まない初期単語分割データを得るために、単語クラスラベルを含まない初期言語モデルを使用して、トレーニングコーパス内のトレーニングサンプルに対して単語分割が行われる(112)。
次いで、単語クラスラベルを含む第1の単語分割データを得るために、単語クラスラベルを含まない初期単語分割データに対して単語クラス置換が実行される(114)。
いくつかの実施形態では、単語クラスラベルを含む第1の単語分割データを得るために、単語クラスラベルを含まない初期単語分割データに対して単語クラス置換を実行するとき、単語クラスラベルを含まない初期単語分割データ内の1つまたは複数のそれぞれの単語に関するそれぞれの単語クラスラベルは、分類用語集内で識別される(116)。単語クラスラベルを含まない初期単語分割データ内の1つまたは複数のそれぞれの単語は、次いで、単語クラスラベルを含む第1の単語分割データを得るために、識別されたそれぞれの単語クラスラベルで置換される(118)。
いくつかの実施形態では、単語クラスラベルを含む第1の単語分割データは、単語クラスラベルを含む第1の言語モデルをトレーニングするために使用される(120)。
いくつかの実施形態では、トレーニングの後、単語クラスラベルを含む第1の言語モデルは、単語クラスラベルを含む第2の単語分割データを得るために、トレーニングコーパス内のトレーニングサンプルに対して単語分割を行うために使用される(122)。
いくつかの実施形態では、単語クラスラベルを含む第2の単語分割データを得るように、トレーニングコーパス内のトレーニングサンプルに対して単語分割を行うために、単語クラスラベルを含む第1の言語モデルを使用するときに、トレーニングコーパス内のトレーニングサンプル内の1つまたは複数のそれぞれの単語に関するそれぞれの単語クラスラベルが、分類用語集内で識別され(124)、単語クラスラベルを含む新たなトレーニングサンプルを得るために、トレーニングサンプル内の1つまたは複数のそれぞれの単語は、識別されたそれぞれの単語クラスラベルで置換され(126)、単語クラスラベルを含む第2の単語分割データを得るために、新たなトレーニングサンプルに対する単語分割が、単語クラスラベルを含む第1の言語モデルを使用して行われる(128)。
いくつかの実施形態では、1つまたは複数の所定の条件を満たす第2の単語分割データに従って、単語クラスラベルを含む第2の単語分割データは、音響言語モデルをトレーニングするために使用される(130)。
いくつかの実施形態では、単語クラスラベルを含む第2の単語分割データを得た後、第1および第2の単語分割データ内の対応するトレーニングサンプルの分割結果は、比較される(132)。第1の単語分割データが第2の単語分割データと一致するという判断に従って、第2の単語分割データは、音響言語モデルのトレーニングで使用するために承認される(134)。いくつかの実施形態では、単語クラスラベルを含む第2の単語分割データを得た後、第1の単語分割データが第2の単語分割データと一致しないという判断に従って、第1の言語モデルは、例えば、第2の単語分割データを使用して再トレーニングされる(136)。
いくつかの実施形態では、第1の言語モデルが再トレーニングされた後、改訂された第2の単語分割データを得るために、第2のトレーニングサンプルに対する単語分割が、単語クラスラベルを含む第1の言語モデルを使用して繰り返される。いくつかの実施形態では、改定された第2の単語分割データが第2の単語分割データと一致するという判断に従って、音響言語モデルのトレーニングで使用するために、改訂された第2の単語分割データを承認する。
いくつかの実施形態では、単語クラスラベルを含む第2の単語分割データを得た後、第1の単語分割データが第2の単語分割データと一致しないという判断に従って、単語クラスラベルを含む第1の単語分割データは、以前とは異なる単語クラス置換で改訂される。第1の言語モデルは、改訂された第1の言語モデルを得るために、改訂された第1の単語分割データを使用して再トレーニングされる。改訂された第1の言語モデルは、改訂された第2の単語分割データを得るために、トレーニングコーパスに対する分割を実行するために使用される。いくつかの実施形態では、改定された第2の単語分割データが改定された第1の単語分割データと一致するという判断に従って、改定された第2の単語分割データは、音響言語モデルのトレーニングで使用するために承認される。
いくつかの実施形態では、第1の単語分割データが第2の単語分割データと一致すると判断することは、さらに、第1の単語分割データ内のそれぞれの単語クラスラベル置換が、第2の単語分割データ内のそれぞれの単語クラスラベル置換と同一であるという判断を含む。
図2は、本開示の実施形態に基づく音響言語モデルトレーニング方法の全体的な概略図である。図1A〜図1Cに示すように、いくつかの実施形態では、図2に示すプロセスは、(1)トレーニングコーパスの前処理、それに続く、(2)(例えば、単語クラスラベルを含む言語モデルを使用する)単語クラスに基づく単語分割、それに続く、(3)単語クラス置換(例えば、追加のまたは改訂された単語クラス置換)、それに続く、(4)新たなトレーニングデータ(例えば、追加のまたは改訂された単語クラス置換で変更された、前の言語モデルから得られた単語分割データ)を使用する改善された言語モデルのトレーニングを含み、(5)(2)〜(4)のプロセスは、各追加の反復で言語モデルを改善するために、複数の反復を繰り返すことができ、所定の基準のセット(例えば、現在の言語モデルをトレーニングするために使用された単語分割データ、および、現在の言語モデルから得られた単語分割データ)が互いに一致すると、次いで、(2)〜(4)のサイクルは、中断され得、(6)言語モデルから最後に得られた分割データは、後処理され、(7)音声認識で使用される言語モデル(音響言語モデル)のトレーニングで使用される。
図2に示すように、前述の特定の分析によれば、いくつかの実施形態では、単語分割段階に関して、最適化は、パターン単語、辞書単語にマッチングするだけでなく、完全な分割のプロセス中に、単語クラスリソース(例えば、分類用語集)に基づいて、一致した単語に対する単語クラスラベルの置換も実行する。単語分割段階に関して、隠れマルコフモデルの確率経路に基づく最適化選択のプロセスの間、言語モデルにおける単語クラスパラメータは、単語クラスの確率を計算するために使用され得る。最適経路が単語クラスラベルを含む場合、単語クラスラベルは、単語分割結果として直接出力されることになる。リソースに基づく単語クラス置換の段階では、単語クラス置換のデータは、自動認識に由来するリストにない単語の代わりに、信頼できるリソースデータでなければならない。それは、語彙単語クラスの置換方法が、トリガルールおよび統計的言語モデルを含む2つの方法の組み合わせであることを示す。
本開示の実施形態では、トリガルールは、補償された部分に対する単語クラス置換のみを実行し、単語クラスに基づく言語モデルの反復を通して、単語クラス置換の範囲の割合は、徐々に改善され得る。本開示の実施形態では、分割リソースとして機能する語彙の分類は、単語分割のマッチング処理に関与し、単語クラスの確率パラメータを使用することによって、最適な確率経路の計算に関わり、勝った単語クラス語彙がラベルの分類の形態で単語分割結果に示されることを可能にする。
前述の具体的な分析に基づいて、本開示の実施形態は、一種の音響言語モデルトレーニングデバイスも提唱する。
図3は、いくつかの実施形態による音響言語モデルトレーニング方法のデバイス構成図である。
デバイスは、単語分割ユニット301と、単語クラス置換ユニット302と、言語モデルトレーニングユニット303と、音響言語モデル取得ユニット304とを含む。
単語分割ユニット301は、単語クラスラベルなしの単語分割データを取得するために、トレーニングコーパスに対して単語分割を実行するために、単語クラスラベルなしの言語モデルを使用する。
単語クラス置換ユニット302は、単語クラスラベルを有する第1の単語分割データを得るために、単語クラスラベルなしの単語分割データに対して単語クラス置換を実行するために使用される。
言語モデルトレーニングユニット303は、単語クラスラベルを有する第1の単語分割データを使用して、単語クラスラベルを含む言語モデルをトレーニングし、単語クラスラベルを含む第2の単語分割データを得るように、トレーニングコーパスの単語分割を行うために、単語クラスラベルを含む言語モデルを使用するために使用される。
音響言語モデル取得ユニット304は、音響言語モデルを得るために、単語クラスラベルを含む第2の単語分割データを使用する。
いくつかの実施形態では、単語クラス置換ユニット302は、予め確立された分類用語集から、単語クラスラベルなしの単語分割データ内の分割された単語と同一の既知の単語を取得し、取得された既知の単語のそれぞれの単語クラスラベルを、単語クラスラベルなしの単語分割データ内の分割された単語のそれぞれの単語クラスラベルとして設定するために使用される。
いくつかの実施形態では、言語モデルトレーニングユニット303は、さらに、単語クラスラベルを有する第2の単語分割データが得られた後、単語クラスラベルを有する第1の単語分割データが、単語クラスラベルを有する第2の単語分割データと単語クラスラベルの同じ置換位置を有するかどうかを判断するために使用される。そうである場合、音響言語モデル取得ユニットは、有効にされ、そうでない場合、単語クラスラベルを有する第2の単語分割データに対して単語クラス置換を実行するために、単語クラス置換ユニットが有効にされる。
いくつかの実施形態では、単語クラス置換ユニット302は、さらに、単語クラスラベルなしの単語分割データと同じ語彙が、予め確立された分類用語集から取得された後、分類用語集から取得された語彙の長さが、一致する単語長の予め設定されたしきい値を超えるかどうかを判断するために使用される。そうである場合、取得された語彙の単語クラスラベルは、単語クラスラベルなしの単語分割データ内の取得された単語の単語クラスラベルとして設定される。
一実施形態では、単語クラス置換ユニット302は、さらに、単語クラスラベルなしの単語分割データ内の分割された単語と同一の既知の単語が、予め確立された分類用語集から取得された後、分類用語集から取得された語彙の出現頻度が、単語頻度の予め設定されたしきい値を超えるかどうかを判断するために使用される。そうである場合、取得された既知の単語の単語クラスラベルは、単語クラスラベルなしの単語分割データ内の分割された単語の単語クラスラベルとして設定される。
好ましくは、装置は、さらに、音声認識ユニット305を含む。
音声認識ユニット305は、入力音声を受信し、音響言語モデルを使用することによって、入力音声を目的とした音声認識処理を実行するために使用される。
好ましくは、このデバイスは、さらに、正規化ユニット306を含む。
正規化ユニット306は、単語クラスラベルなしの言語モデルを使用することによってトレーニングコーパスに対する単語分割を行う前に、トレーニングコーパスに対する正規化処理を行うために使用される。
図3に示すデバイスを、様々なネットワークのハードウェアエンティティに組み込むことは、許容できる。例えば、音響言語モデルトレーニングデバイスは、フィーチャーフォン、スマートフォン、パームトップコンピュータ、パーソナルコンピュータ(PC)、タブレットコンピュータ、または携帯情報端末(PDA)、などのようなデバイスに組み込まれ得る。
実際には、本開示の実施形態で述べた音響言語モデルトレーニングデバイスを具体的に実施するための様々な形態が存在する。例えば、特定の仕様に従うアプリケーションインターフェースを介して、音響言語モデルトレーニングデバイスは、ブラウザにインストールされたプラグインとして記述され得、同様に、ユーザ自身によってダウンロードするために使用されるアプリケーションとしてパッケージ化され得る。プラグインとして記述される場合、ocx、dll、cab、などを含む様々なプラグインフォーマットで実施され得る。Flashプラグイン、RealPlayerプラグイン、MMSプラグイン、MI staveプラグイン、ActiveXプラグイン、などを含む特定の技術を介して、本開示の実施形態で述べた音響言語モデルトレーニングデバイスを実現することも許容され得る。
命令または命令セットの記憶方法によって、本開示の実施形態で述べた音響言語モデルトレーニング方法は、様々な記憶媒体に記憶され得る。これらの記憶媒体は、限定はしないが、フロッピー(登録商標)ディスク、CD、DVD、ハードディスク、NANDフラッシュ、USBフラッシュディスク、CFカード、SDカード、MMCカード、SMカード、メモリースティック(Memory Stick)、xDカード、などを含む。
加えて、本開示の実施形態で述べた音響言語モデルトレーニング方法は、また、NANDフラッシュに基づく記憶媒体、例えば、USBフラッシュディスク、CFカード、SDカード、SDHCカード、MMCカード、SMカード、メモリースティック、xDカード、などに適用され得る。
要約すると、本開示のいくつかの実施形態は、単語クラスラベルなしの単語分割データを得るために、単語クラスラベルなしの言語モデルを使用することによって、トレーニングコーパスに対して単語分割を行うステップと、単語クラスラベルを有する第1の単語分割データを得るために、単語クラスラベルなしの単語分割データに対する単語クラス置換を実行するステップと、単語クラスラベルを有する第1の単語分割データを使用して、単語クラスラベルを有する言語モデルをトレーニングし、単語クラスラベルを有する第2の単語分割データを得るように、トレーニングコーパスの単語分割を行うために、単語クラスラベルを有する言語モデルを使用するステップと、音響言語モデルを得るために、単語クラスラベルを有する第2の単語分割データを使用するステップとを含む。したがって、単語クラスの単語分割に基づく音響言語モデルトレーニングは、本開示の実施形態の適用後に、果たされ得る。本開示の実施形態は、言語モデルトレーニングコーパス内の同じクラスのエンティティ名のすべてを置換するために、単語クラスラベルを使用することができ、その結果、言語モデル内の語彙の数を減少させる。加えて、同じ単語クラスのエンティティ名に関連付けられた確率を計算するとき、言語モデル内の単語クラスラベルに対応する同じパラメータが使用され得る。本開示の実施形態は、言語モデルの語彙範囲を拡大し、したがって、音声認識システムの認識精度を改善する。
加えて、本開示の実施形態は、音声認識システムの制限された用語集容量によって引き起こされる語彙以外の単語に関する不十分な認識結果の問題に対処する。
図4は、いくつかの実施形態による、本開示を実施するシステム400のブロック図である。いくつかの実施形態では、システム400は、上記で説明した、トレーニング、分割、および認識処理に関与する複数の処理装置のうちの1つである。いくつかの実施形態では、システム400は、上記で説明した機能およびプロセスを実行するための複数の処理ユニットを有する単一の機械を表す。
図4に示すように、システム400は、1つまたは複数の処理ユニット(または「プロセッサ」)402と、メモリ404と、入力/出力(I/O)インターフェース406と、ネットワーク通信インターフェース408とを含む。これらの構成要素は、1つまたは複数の通信バスまたは信号ライン410を介して互いに通信する。いくつかの実施形態では、メモリ404、または、メモリ404のコンピュータ可読記憶媒体は、オペレーティングシステム412、I/Oモジュール414、通信モジュール416、および動作制御モジュール418のすべてまたはサブセットを含む、プログラム、モジュール、命令、およびデータ構造を記憶する。1つまたは複数のプロセッサ402は、メモリ404に結合され、これらのプログラム、モジュール、および命令を実行するように動作可能であり、データ構造から読み出す/データ構造に書き込む。
いくつかの実施形態では、処理ユニット402は、シングルコアまたはマルチコアマイクロプロセッサのような、1つまたは複数のプロセッサ、またはマイクロプロセッサを含む。いくつかの実施形態では、処理ユニット402は、1つまたは複数の汎用プロセッサを含む。いくつかの実施形態では、処理ユニット402は、1つまたは複数の専用プロセッサを含む。いくつかの実施形態では、処理ユニット402は、1つまたは複数のパーソナルコンピュータ、モバイルデバイス、ハンドヘルドコンピュータ、タブレットコンピュータ、または、1つもしくは複数の処理ユニットを含み、様々なオペレーティングシステム上で動作する多様なハードウェアプラットフォームのうちの1つを含む。
いくつかの実施形態では、メモリ404は、DRAM、SRAM、DDR RAM、または他のランダムアクセス固体メモリデバイスのような高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ404は、1つまたは複数の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、または他の不揮発性固体記憶デバイスのような不揮発性メモリを含む。いくつかの実施形態では、メモリ404は、処理ユニット402から遠隔に配置された1つまたは複数の記憶デバイスを含む。メモリ404、または、代替的には、メモリ404内の不揮発性メモリデバイスは、不揮発性コンピュータ可読記憶媒体を備える。
いくつかの実施形態では、I/Oインターフェース406は、ディスプレイ、キーボード、タッチスクリーン、スピーカ、およびマイクロホンのような入力/出力デバイスを、システム400のI/Oモジュール414に結合する。I/Oインターフェース406は、I/Oモジュール414と協働して、ユーザ入力(例えば、音声入力、キーボード入力、タッチ入力、など)を受信し、それらを適宜処理する。I/Oインターフェース406およびユーザインターフェースモジュール414は、また、システム400で実施される様々なプログラム命令に従って、出力(例えば、音、画像、テキスト、など)をユーザに提示する。
いくつかの実施形態では、ネットワーク通信インターフェース408は、ワイヤード通信ポートならびに/またはワイヤレス送信および受信回路網を含む。ワイヤード通信ポートは、1つまたは複数のワイヤードインターフェース、例えば、イーサネット(登録商標)、ユニバーサルシリアルバス(USB)、FIREWIRE、などを介して、通信信号を送信および受信する。ワイヤレス回路網は、RF信号および/または光信号を、通信ネットワークおよび他の通信デバイスとの間で受信および送信する。ワイヤレス通信は、GSM(登録商標)、EDGE、CDMA、TDMA、Bluetooth(登録商標)、Wi-Fi、VoIP、Wi-MAX、または他の適切な通信プロトコルのような、複数の通信規格、プロトコル、および技術のいずれかを使用することができる。ネットワーク通信インターフェース408は、システム400と、インターネット、イントラネット、ならびに/または、セルラ電話ネットワーク、ワイヤレスローカルエリアネットワーク(LAN)、および/もしくはメトロポリタンエリアネットワーク(MAN)のようなワイヤレスネットワークのようなネットワーク、ならびに他のデバイスとの間の通信を可能にする。通信モジュール416は、ネットワーク通信インターフェース408を介する、システム400と他のデバイス(例えば、並列トレーニングおよび/または復号化プロセスに関与する他のデバイス)との間の通信を容易にする。
いくつかの実施形態では、オペレーティングシステム402(例えば、Darwin、RTXC、LINUX(登録商標)、UNIX(登録商標)、OS X、ウインドウズ(登録商標)、または、VxWorksのような組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理、など)を制御および管理するための様々なソフトウェア構成要素および/またはドライバを含み、様々なハードウェア、ファームウェア、およびソフトウェア構成要素間の通信を容易にする。
図4に示すように、システム400は、メモリ404に動作制御モジュール418を記憶する。いくつかの実施形態では、動作制御モジュール418は、さらに、以下のサブモジュール、すなわち、前処理モジュール420、言語モデルトレーニングモジュール422、単語クラス置換モジュール424、単語分割モジュール426、後処理モジュール428、および音声認識モジュール430、またはそのサブセットもしくはスーパーセットを含む。加えて、これらのモジュールの各々は、動作制御モジュール418の1つまたは複数の以下のデータ構造およびデータ源、すなわち、トレーニングコーパス432、分類用語集434、単語クラスラベルなしの初期言語モデル436、および、単語クラスラベルを有する言語モデル438、または、そのサブセットもしくはスーパーセットへのアクセスを有する。いくつかの実施形態では、動作制御モジュール418は、オプションで、本明細書に記載の他の関連する機能を提供するために、1つまたは複数の他のモジュールを含む。動作制御モジュール418のサブモジュールおよびデータ構造の構造、機能、および相互作用の詳細は、図1A〜図3および付随する説明に関連して提供される。
特定の実施形態を上記で説明したが、本発明をこれらの特定の実施形態に限定することは、意図されないことが理解されるであろう。それどころか、本発明は、添付の特許請求の範囲の要旨および範囲内にある代替態様、修正態様、および等価態様を含む。多数の特定の詳細が、本明細書で提示される主題の完全な理解を提供するために記載されている。しかし、主題は、これらの特定の詳細なしに実施され得ることが、当業者には明らかであろう。他の例では、周知の方法、手順、構成要素、および回路は、実施形態の態様を不必要に曖昧にしないように、詳細には説明されていない。
301 単語分割ユニット
302 単語クラス置換ユニット
303 言語モデルトレーニングユニット
304 音響言語モデル取得ユニット
305 音声認識ユニット
306 正規化ユニット
400 システム
402 プロセッサ
404 メモリ
406 I/Oインターフェース
408 ネットワーク通信インターフェース
410 通信バス、信号ライン
412 オペレーティングシステム
414 I/Oモジュール
416 通信モジュール
418 動作制御モジュール
420 前処理モジュール
422 言語モデルトレーニングモジュール
424 単語クラス置換モジュール
426 単語分割モジュール
428 後処理モジュール
430 音声認識モジュール
432 トレーニングコーパス
434 分類用語集
436 初期言語モデル
438 単語クラスラベルを有する言語モデル

Claims (20)

  1. 音響言語モデルをトレーニングする方法であって、
    1つまたは複数のプロセッサとメモリとを有するデバイスにおいて、
    単語クラスラベルを含まない初期単語分割データを得るために、単語クラスラベルを含まない初期言語モデルを使用して、トレーニングコーパス内のトレーニングサンプルに対して単語分割を行うステップと、
    単語クラスラベルを含む第1の単語分割データを得るために、単語クラスラベルを含まない前記初期単語分割データに対して単語クラス置換を実行するステップと、
    単語クラスラベルを含む第1の言語モデルをトレーニングするために、単語クラスラベルを含む前記第1の単語分割データを使用するステップと、
    単語クラスラベルを含む第2の単語分割データを得るように、前記トレーニングコーパス内の前記トレーニングサンプルに対して単語分割を行うために、単語クラスラベルを含む前記第1の言語モデルを使用するステップと、
    1つまたは複数の所定の基準を満たす前記第2の単語分割データに従って、前記音響言語モデルをトレーニングするために、単語クラスラベルを含む前記第2の単語分割データを使用するステップと
    を含む、方法。
  2. 単語クラスラベルを含む第1の単語分割データを得るために、単語クラスラベルを含まない前記初期単語分割データに対して単語クラス置換を実行するステップが、
    分類用語集内で、単語クラスラベルを含まない前記初期単語分割データ内の1つまたは複数のそれぞれの単語に関するそれぞれの単語クラスラベルを識別するステップと、
    単語クラスラベルを含む前記第1の単語分割データを得るために、単語クラスラベルを含まない前記初期単語分割データ内の前記1つまたは複数のそれぞれの単語を、識別されたそれぞれの単語クラスラベルで置換するステップと
    を含む、請求項1に記載の方法。
  3. 単語クラスラベルを含む第2の単語分割データを得るように、前記トレーニングコーパス内の前記トレーニングサンプルに対して単語分割を行うために、単語クラスラベルを含む前記第1の言語モデルを使用するステップが、
    分類用語集内で、前記トレーニングコーパス内の前記トレーニングサンプル内の1つまたは複数のそれぞれの単語に関するそれぞれの単語クラスラベルを識別するステップと、
    単語クラスラベルを含む新たなトレーニングサンプルを得るために、前記トレーニングサンプル内の前記1つまたは複数のそれぞれの単語を、識別されたそれぞれの単語クラスラベルで置換するステップと、
    単語クラスラベルを含む前記第2の単語分割データを得るために、単語クラスラベルを含む前記第1の言語モデルを使用し、前記新たなトレーニングサンプルに対して単語分割を行うステップと
    を含む、請求項1に記載の方法。
  4. 単語クラスラベルを含む前記第2の単語分割データを得た後、
    前記第1および第2の単語分割データ内の対応するトレーニングサンプルの分割結果を比較するステップと、
    前記第1の単語分割データが前記第2の単語分割データと一致するという判断に従って、前記音響言語モデルの前記トレーニングにおいて使用するために前記第2の単語分割データを承認するステップと
    をさらに含む、請求項3に記載の方法。
  5. 単語クラスラベルを含む前記第2の単語分割データを得た後、
    前記第1の単語分割データが前記第2の単語分割データと一致しないという判断に従って、前記第2の単語分割データを使用して前記第1の言語モデルを再トレーニングするステップをさらに含む、請求項4に記載の方法。
  6. 前記第1の言語モデルが再トレーニングされた後、改訂された第2の単語分割データを得るために、単語クラスラベルを含む前記第1の言語モデルを使用して、第2のトレーニングサンプルに対する前記単語分割を繰り返すステップと、
    前記改訂された第2の単語分割データが前記第2の単語分割データと一致するという判断に従って、前記音響言語モデルの前記トレーニングにおいて使用するために前記改訂された第2の単語分割データを承認するステップと
    をさらに含む、請求項5に記載の方法。
  7. 前記第1の単語分割データが前記第2の単語分割データと一致するという判断が、前記第1の単語分割データにおけるそれぞれの単語クラスラベル置換が、前記第2の単語分割データ内のそれぞれの単語クラスラベル置換と同一であるという判断をさらに含む、請求項4に記載の方法。
  8. 音響言語モデルをトレーニングするためのシステムであって、
    1つまたは複数のプロセッサと、
    命令が記憶されているメモリとを含み、前記命令が、前記1つまたは複数のプロセッサによって実行されると、前記プロセッサに、
    単語クラスラベルを含まない初期単語分割データを得るために、単語クラスラベルを含まない初期言語モデルを使用して、トレーニングコーパス内のトレーニングサンプルに対して単語分割を行う動作と、
    単語クラスラベルを含む第1の単語分割データを得るために、単語クラスラベルを含まない前記初期単語分割データに対して単語クラス置換を実行する動作と、
    単語クラスラベルを含む第1の言語モデルをトレーニングするために、単語クラスラベルを含む前記第1の単語分割データを使用する動作と、
    単語クラスラベルを含む第2の単語分割データを得るように、前記トレーニングコーパス内の前記トレーニングサンプルに対して単語分割を行うために、単語クラスラベルを含む前記第1の言語モデルを使用する動作と、
    1つまたは複数の所定の基準を満たす前記第2の単語分割データに従って、前記音響言語モデルをトレーニングするために、単語クラスラベルを含む前記第2の単語分割データを使用する動作と
    を実行させる、システム。
  9. 単語クラスラベルを含む第1の単語分割データを得るために、単語クラスラベルを含まない前記初期単語分割データに対して単語クラス置換を実行する動作が、
    分類用語集内で、単語クラスラベルを含まない前記初期単語分割データ内の1つまたは複数のそれぞれの単語に関するそれぞれの単語クラスラベルを識別する動作と、
    単語クラスラベルを含む前記第1の単語分割データを得るために、単語クラスラベルを含まない前記初期単語分割データ内の前記1つまたは複数のそれぞれの単語を、識別されたそれぞれの単語クラスラベルで置換する動作と
    を含む、請求項8に記載のシステム。
  10. 単語クラスラベルを含む第2の単語分割データを得るように、前記トレーニングコーパス内の前記トレーニングサンプルに対して単語分割を行うために、単語クラスラベルを含む前記第1の言語モデルを使用する動作が、
    分類用語集内で、前記トレーニングコーパス内の前記トレーニングサンプル内の1つまたは複数のそれぞれの単語に関するそれぞれの単語クラスラベルを識別する動作と、
    単語クラスラベルを含む新たなトレーニングサンプルを得るために、前記トレーニングサンプル内の前記1つまたは複数のそれぞれの単語を、識別されたそれぞれの単語クラスラベルで置換する動作と、
    単語クラスラベルを含む前記第2の単語分割データを得るために、単語クラスラベルを含む前記第1の言語モデルを使用し、前記新たなトレーニングサンプルに対して単語分割を行う動作と
    を含む、請求項8に記載のシステム。
  11. 前記動作が、
    単語クラスラベルを含む前記第2の単語分割データを得た後、
    前記第1および第2の単語分割データ内の対応するトレーニングサンプルの分割結果を比較する動作と、
    前記第1の単語分割データが前記第2の単語分割データと一致するという判断に従って、前記音響言語モデルの前記トレーニングで使用するために前記第2の単語分割データを承認する動作と
    をさらに含む、請求項10に記載のシステム。
  12. 前記動作が、
    単語クラスラベルを含む前記第2の単語分割データを得た後、
    前記第1の単語分割データが前記第2の単語分割データと一致しないという判断に従って、前記第2の単語分割データを使用して前記第1の言語モデルを再トレーニングする動作をさらに含む、請求項11に記載のシステム。
  13. 前記動作が、
    前記第1の言語モデルが再トレーニングされた後、改訂された第2の単語分割データを得るために、単語クラスラベルを含む前記第1の言語モデルを使用して、第2のトレーニングサンプルに対する前記単語分割を繰り返す動作と、
    前記改訂された第2の単語分割データが前記第2の単語分割データと一致するという判断に従って、前記音響言語モデルの前記トレーニングで使用するために前記改訂された第2の単語分割データを承認する動作と
    をさらに含む、請求項12に記載のシステム。
  14. 前記第1の単語分割データが前記第2の単語分割データと一致するという判断が、前記第1の単語分割データにおけるそれぞれの単語クラスラベル置換が、前記第2の単語分割データ内のそれぞれの単語クラスラベル置換と同一であるという判断をさらに含む、請求項11に記載のシステム。
  15. 音響言語モデルをトレーニングするための非一時的なコンピュータ可読記憶媒体であって、
    1つまたは複数のプロセッサによって実行されると、前記プロセッサに、
    単語クラスラベルを含まない初期単語分割データを得るために、単語クラスラベルを含まない初期言語モデルを使用して、トレーニングコーパス内のトレーニングサンプルに対して単語分割を行う動作と、
    単語クラスラベルを含む第1の単語分割データを得るために、単語クラスラベルを含まない前記初期単語分割データに対して単語クラス置換を実行する動作と、
    単語クラスラベルを含む第1の言語モデルをトレーニングするために、単語クラスラベルを含む前記第1の単語分割データを使用する動作と、
    単語クラスラベルを含む第2の単語分割データを得るように、前記トレーニングコーパス内の前記トレーニングサンプルに対して単語分割を行うために、単語クラスラベルを含む前記第1の言語モデルを使用する動作と、
    1つまたは複数の所定の基準を満たす前記第2の単語分割データに従って、前記音響言語モデルをトレーニングするために、単語クラスラベルを含む前記第2の単語分割データを使用する動作と
    を実行させる命令が記憶された、コンピュータ可読記憶媒体。
  16. 単語クラスラベルを含む第1の単語分割データを得るために、単語クラスラベルを含まない前記初期単語分割データに対して単語クラス置換を実行する動作が、
    分類用語集内で、単語クラスラベルを含まない前記初期単語分割データ内の1つまたは複数のそれぞれの単語に関するそれぞれの単語クラスラベルを識別する動作と、
    単語クラスラベルを含む前記第1の単語分割データを得るために、単語クラスラベルを含まない前記初期単語分割データ内の前記1つまたは複数のそれぞれの単語を、識別されたそれぞれの単語クラスラベルで置換する動作と
    を含む、請求項15に記載のコンピュータ可読記憶媒体。
  17. 単語クラスラベルを含む第2の単語分割データを得るように、前記トレーニングコーパス内の前記トレーニングサンプルに対して単語分割を行うために、単語クラスラベルを含む前記第1の言語モデルを使用する動作が、
    分類用語集内で、前記トレーニングコーパス内の前記トレーニングサンプル内の1つまたは複数のそれぞれの単語に関するそれぞれの単語クラスラベルを識別する動作と、
    単語クラスラベルを含む新たなトレーニングサンプルを得るために、前記トレーニングサンプル内の前記1つまたは複数のそれぞれの単語を、識別されたそれぞれの単語クラスラベルで置換する動作と、
    単語クラスラベルを含む前記第2の単語分割データを得るために、単語クラスラベルを含む前記第1の言語モデルを使用して、前記新たなトレーニングサンプルに対して単語分割を行う動作と
    を含む、請求項15に記載のコンピュータ可読記憶媒体。
  18. 前記動作が、
    単語クラスラベルを含む前記第2の単語分割データを得た後、
    前記第1および第2の単語分割データ内の対応するトレーニングサンプルの分割結果を比較する動作と、
    前記第1の単語分割データが前記第2の単語分割データと一致するという判断に従って、前記音響言語モデルの前記トレーニングで使用するために前記第2の単語分割データを承認する動作と
    をさらに含む、請求項17に記載のコンピュータ可読記憶媒体。
  19. 前記動作が、
    単語クラスラベルを含む前記第2の単語分割データを得た後、
    前記第1の単語分割データが前記第2の単語分割データと一致しないという判断に従って、前記第2の単語分割データを使用して前記第1の言語モデルを再トレーニングする動作をさらに含む、請求項18に記載のコンピュータ可読記憶媒体。
  20. 前記動作が、
    前記第1の言語モデルが再トレーニングされた後、改訂された第2の単語分割データを得るために、単語クラスラベルを含む前記第1の言語モデルを使用して、第2のトレーニングサンプルに対する前記単語分割を繰り返す動作と、
    前記改訂された第2の単語分割データが前記第2の単語分割データと一致するという判断に従って、前記音響言語モデルの前記トレーニングで使用するために前記改訂された第2の単語分割データを承認する動作と
    をさらに含む、請求項19に記載のコンピュータ可読記憶媒体。
JP2015555551A 2013-02-01 2013-10-25 音響言語モデルトレーニングのための方法およびデバイス Active JP5901001B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310040085.1A CN103971677B (zh) 2013-02-01 2013-02-01 一种声学语言模型训练方法和装置
CN201310040085.1 2013-02-01
PCT/CN2013/085948 WO2014117548A1 (en) 2013-02-01 2013-10-25 Method and device for acoustic language model training

Publications (2)

Publication Number Publication Date
JP5901001B1 true JP5901001B1 (ja) 2016-04-06
JP2016513269A JP2016513269A (ja) 2016-05-12

Family

ID=51241096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015555551A Active JP5901001B1 (ja) 2013-02-01 2013-10-25 音響言語モデルトレーニングのための方法およびデバイス

Country Status (6)

Country Link
JP (1) JP5901001B1 (ja)
CN (1) CN103971677B (ja)
BR (1) BR112015018205B1 (ja)
CA (1) CA2899532C (ja)
TW (1) TWI512719B (ja)
WO (1) WO2014117548A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7098853B2 (ja) 2020-03-19 2022-07-12 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド ラベルラベリングモデルを確立する方法、装置、電子機器、プログラム及び可読記憶媒体

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106486114A (zh) * 2015-08-28 2017-03-08 株式会社东芝 改进语言模型的方法和装置以及语音识别方法和装置
US10748528B2 (en) * 2015-10-09 2020-08-18 Mitsubishi Electric Corporation Language model generating device, language model generating method, and recording medium
CN105654945B (zh) * 2015-10-29 2020-03-06 乐融致新电子科技(天津)有限公司 一种语言模型的训练方法及装置、设备
CN107204184B (zh) * 2017-05-10 2018-08-03 平安科技(深圳)有限公司 语音识别方法及系统
CN109427330B (zh) * 2017-09-05 2023-04-07 中国科学院声学研究所 一种基于统计语言模型得分规整的语音识别方法及系统
TWI639997B (zh) * 2017-09-28 2018-11-01 大仁科技大學 基於機率規則之對話理解方法
CN110019305B (zh) * 2017-12-18 2024-03-15 上海智臻智能网络科技股份有限公司 知识库扩展方法及存储介质、终端
CN110083820B (zh) * 2018-01-26 2023-06-27 普天信息技术有限公司 一种基准分词模型的改进方法及装置
CN108197116B (zh) * 2018-01-31 2021-05-28 天闻数媒科技(北京)有限公司 一种中文文本分词的方法、装置、分词设备及存储介质
CN110648657B (zh) * 2018-06-27 2024-02-02 北京搜狗科技发展有限公司 一种语言模型训练方法、构建方法和装置
CN109616121A (zh) * 2018-11-28 2019-04-12 北京捷通华声科技股份有限公司 一种数字转换方法和装置
CN109949797B (zh) * 2019-03-11 2021-11-12 北京百度网讯科技有限公司 一种训练语料的生成方法、装置、设备及存储介质
CN110110041B (zh) * 2019-03-15 2022-02-15 平安科技(深圳)有限公司 错词纠正方法、装置、计算机装置及存储介质
CN111694962A (zh) * 2019-03-15 2020-09-22 阿里巴巴集团控股有限公司 数据处理方法和装置
WO2020218635A1 (ko) * 2019-04-23 2020-10-29 엘지전자 주식회사 인공 지능을 이용한 음성 합성 장치, 음성 합성 장치의 동작 방법 및 컴퓨터로 판독 가능한 기록 매체
WO2020256170A1 (ko) * 2019-06-18 2020-12-24 엘지전자 주식회사 인공 지능을 이용한 음성 합성 장치, 음성 합성 장치의 동작 방법 및 컴퓨터로 판독 가능한 기록 매체
CN110442859B (zh) * 2019-06-28 2023-05-26 中国人民解放军国防科技大学 标注语料生成方法、装置、设备及存储介质
CN110489744A (zh) * 2019-07-25 2019-11-22 腾讯科技(深圳)有限公司 一种语料的处理方法、装置、电子设备和存储介质
CN111143521B (zh) * 2019-10-28 2023-08-15 广州恒巨信息科技有限公司 基于知识图谱的法条检索方法、系统、装置及存储介质
CN110992939B (zh) * 2019-12-18 2023-06-27 广州市百果园信息技术有限公司 语言模型训练方法、解码方法、装置、存储介质及设备
CN111125360B (zh) * 2019-12-19 2023-10-20 网易(杭州)网络有限公司 游戏领域的情感分析方法、装置及其模型训练方法、装置
CN111291560B (zh) * 2020-03-06 2023-05-23 深圳前海微众银行股份有限公司 样本扩充方法、终端、装置及可读存储介质
CN112397054B (zh) * 2020-12-17 2023-11-24 北京中电飞华通信有限公司 一种电力调度语音识别方法
CN112735380B (zh) * 2020-12-28 2022-05-13 思必驰科技股份有限公司 重打分语言模型的打分方法及语音识别方法
CN113177109A (zh) * 2021-05-27 2021-07-27 中国平安人寿保险股份有限公司 文本的弱标注方法、装置、设备以及存储介质
CN116612750A (zh) * 2023-05-23 2023-08-18 苏州科帕特信息科技有限公司 一种语言模型自动训练方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004034378A1 (ja) * 2002-10-08 2004-04-22 Matsushita Electric Industrial Co., Ltd. 言語モデル生成蓄積装置、音声認識装置、言語モデル生成方法および音声認識方法
WO2007138875A1 (ja) * 2006-05-31 2007-12-06 Nec Corporation 音声認識用単語辞書・言語モデル作成システム、方法、プログラムおよび音声認識システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6404925B1 (en) * 1999-03-11 2002-06-11 Fuji Xerox Co., Ltd. Methods and apparatuses for segmenting an audio-visual recording using image similarity searching and audio speaker recognition
JP4590692B2 (ja) * 2000-06-28 2010-12-01 パナソニック株式会社 音響モデル作成装置及びその方法
CN1141697C (zh) * 2000-09-27 2004-03-10 中国科学院自动化研究所 一种带调三音子模型及训练方法
DE10350652B3 (de) * 2003-10-29 2005-06-30 Yazaki Europe Ltd., Hemel Hempstead Steckverbindergehäuse mit Kurzschlußbrücke
US7684987B2 (en) * 2004-01-21 2010-03-23 Microsoft Corporation Segmental tonal modeling for tonal languages
FR2892846A1 (fr) * 2005-11-03 2007-05-04 France Telecom Procede et dispositif de calcul de mesure de similarite entre une representation d'un segment audio de reference et une representation d'un segment audio a tester et procede et dispositif de suivi d'un locuteur de reference
TWI297487B (en) * 2005-11-18 2008-06-01 Tze Fen Li A method for speech recognition
US8204747B2 (en) * 2006-06-23 2012-06-19 Panasonic Corporation Emotion recognition apparatus
US7617103B2 (en) * 2006-08-25 2009-11-10 Microsoft Corporation Incrementally regulated discriminative margins in MCE training for speech recognition
CN101261832B (zh) * 2008-04-21 2011-05-25 北京航空航天大学 汉语语音情感信息的提取及建模方法
TWI389100B (zh) * 2008-11-19 2013-03-11 Inst Information Industry 語音情緒的分類方法及其情緒語意模型的建立方法
CN102568477A (zh) * 2010-12-29 2012-07-11 盛乐信息技术(上海)有限公司 一种半监督的发音模型建模系统及方法
CN102651217A (zh) * 2011-02-25 2012-08-29 株式会社东芝 用于合成语音的方法、设备以及用于语音合成的声学模型训练方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004034378A1 (ja) * 2002-10-08 2004-04-22 Matsushita Electric Industrial Co., Ltd. 言語モデル生成蓄積装置、音声認識装置、言語モデル生成方法および音声認識方法
WO2007138875A1 (ja) * 2006-05-31 2007-12-06 Nec Corporation 音声認識用単語辞書・言語モデル作成システム、方法、プログラムおよび音声認識システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7098853B2 (ja) 2020-03-19 2022-07-12 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド ラベルラベリングモデルを確立する方法、装置、電子機器、プログラム及び可読記憶媒体
US11531813B2 (en) 2020-03-19 2022-12-20 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, electronic device and readable storage medium for creating a label marking model

Also Published As

Publication number Publication date
CN103971677A (zh) 2014-08-06
CA2899532A1 (en) 2014-08-07
JP2016513269A (ja) 2016-05-12
BR112015018205A2 (pt) 2017-07-18
CN103971677B (zh) 2015-08-12
WO2014117548A1 (en) 2014-08-07
TWI512719B (zh) 2015-12-11
TW201432669A (zh) 2014-08-16
CA2899532C (en) 2017-09-19
BR112015018205B1 (pt) 2022-02-15

Similar Documents

Publication Publication Date Title
JP5901001B1 (ja) 音響言語モデルトレーニングのための方法およびデバイス
US9396723B2 (en) Method and device for acoustic language model training
CN108363790B (zh) 用于对评论进行评估的方法、装置、设备和存储介质
CN108121700B (zh) 一种关键词提取方法、装置及电子设备
CN107729313B (zh) 基于深度神经网络的多音字读音的判别方法和装置
JP6493866B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20160306783A1 (en) Method and apparatus for phonetically annotating text
US10242670B2 (en) Syntactic re-ranking of potential transcriptions during automatic speech recognition
KR20180005850A (ko) 자동 통역 방법 및 장치, 및 기계 번역 방법 및 장치
TW202020691A (zh) 特徵詞的確定方法、裝置和伺服器
CN107437417B (zh) 基于循环神经网络语音识别中语音数据增强方法及装置
CN112528637B (zh) 文本处理模型训练方法、装置、计算机设备和存储介质
CN114580382A (zh) 文本纠错方法以及装置
JP5809381B1 (ja) 自然言語処理システム、自然言語処理方法、および自然言語処理プログラム
CN111079432A (zh) 文本检测方法、装置、电子设备及存储介质
CN113053367A (zh) 语音识别方法、语音识别的模型训练方法以及装置
US9135326B2 (en) Text mining method, text mining device and text mining program
CN110503956B (zh) 语音识别方法、装置、介质及电子设备
KR102608867B1 (ko) 업계 텍스트를 증분하는 방법, 관련 장치 및 매체에 저장된 컴퓨터 프로그램
CN112559725A (zh) 文本匹配方法、装置、终端和存储介质
JP7096199B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR102204395B1 (ko) 개체명 인식을 이용한 음성인식 띄어쓰기 보정 방법 및 시스템
JP2013109364A (ja) Cjk名前検出
CN113362809B (zh) 语音识别方法、装置和电子设备
CN115858776A (zh) 一种变体文本分类识别方法、系统、存储介质和电子设备

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160303

R150 Certificate of patent or registration of utility model

Ref document number: 5901001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250