JP5459214B2 - 言語モデル作成装置、言語モデル作成方法、音声認識装置、音声認識方法、プログラム、および記録媒体 - Google Patents

言語モデル作成装置、言語モデル作成方法、音声認識装置、音声認識方法、プログラム、および記録媒体 Download PDF

Info

Publication number
JP5459214B2
JP5459214B2 JP2010525708A JP2010525708A JP5459214B2 JP 5459214 B2 JP5459214 B2 JP 5459214B2 JP 2010525708 A JP2010525708 A JP 2010525708A JP 2010525708 A JP2010525708 A JP 2010525708A JP 5459214 B2 JP5459214 B2 JP 5459214B2
Authority
JP
Japan
Prior art keywords
word
language model
diversity
chain
appearance frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010525708A
Other languages
English (en)
Other versions
JPWO2010021368A1 (ja
Inventor
真 寺尾
清一 三木
山本  仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010525708A priority Critical patent/JP5459214B2/ja
Publication of JPWO2010021368A1 publication Critical patent/JPWO2010021368A1/ja
Application granted granted Critical
Publication of JP5459214B2 publication Critical patent/JP5459214B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Description

本発明は、自然言語処理技術に関し、特に音声認識や文字認識などに用いる言語モデルの作成技術に関する。
統計的言語モデルは、単語列や文字列の生成確率を与えるモデルであり、音声認識、文字認識、自動翻訳、情報検索、テキスト入力、文章添削などの自然言語処理において広く活用されている。最も広く用いられている統計的言語モデルとして、N−gram言語モデルがある。N−gram言語モデルは、ある時点での単語の生成確率は直前のN−1個の単語にのみ依存する、と考えるモデルである。
N−gram言語モデルにおいて、i番目の単語wiの生成確率は、P(wi|wi-N+1 i-1)で与えられる。ここで、条件部のwi-N+1 i-1は(i−N+1)〜(i−1)番目の単語列を表す。なお、N=2のモデルをバイグラム(bigram)モデル、N=3のモデルをトライグラム(trigram)モデルと呼び、単語が直前の単語に影響されずに生成されるモデルをユニグラム(unigram)モデルと呼ぶ。N−gram言語モデルによれば、単語列w1 n=(w1,w2,…,wn)の生成確率P(w1 n)は、次の式(1)で表される。
Figure 0005459214
N−gram言語モデルにおける、様々な単語の様々な条件付き確率からなるパラメータは、学習用テキストデータに対する最尤推定などにより求められる。例えば、N−gram言語モデルを音声認識や文字認識などで用いるときは、大量の学習用テキストデータを用いて、予め汎用のモデルを作成しておくことが一般的である。しかし、予め作成された汎用のN−gram言語モデルは、必ずしも実際に認識対象となるデータの特徴を適切に表しているとは限らない。したがって、汎用のN−gram言語モデルを、認識対象となるデータにあわせて適応化することが望ましい。
N−gram言語モデルを認識対象となるデータに適応化する代表的な技術にキャッシュモデルがある(例えば、F.Jelinek, B.Merialdo, S.Roukos, M.Strauss, "A Dynamic Language Model for Speech Recognition, " Proceedings of the workshop on Speech and Natural Language, pp.293-295, 1991.など参照)。キャッシュモデルによる言語モデルの適応化では、「同じ単語や言い回しは繰り返し使われやすい」という言葉の局所的な性質を利用する。具体的には、認識対象となるデータに現れる単語や単語列をキャッシュとして覚えておき、キャッシュ内の単語や単語列の統計的性質を反映するようにN−gram言語モデルを適応化する。
上記技術では、i番目の単語wiの生成確率を求める場合に、まず、直前のM個の単語からなる単語列wi-M i-1をキャッシュとして、キャッシュ内の単語のユニグラム頻度C(wi)、バイグラム頻度C(wi-1,wi)、トライグラム頻度C(wi-2,wi-1,wi)を求める。ここで、ユニグラム頻度C(wi)は単語列wi-M i-1に出現する単語wiの頻度、バイグラム頻度C(wi-1,wi)は単語列Wi-M i-1に出現する2単語連鎖wi-1iの頻度、トライグラム頻度C(wi-2,wi-1,wi)は単語列Wi-M i-1に出現する3単語連鎖wi-2i-1iの頻度である。なお、キャッシュの長さであるMは、例えば、200〜1000程度の定数を実験的に定める。
次に、これら頻度情報を元に、単語のユニグラム確率Puni(wi)、バイグラム確率Pbi(wi|wi-1)、トライグラム確率Ptri(wi|wi-2,wi-1)を求める。そして、これらの確率値を次の式(2)により線形補間することで、キャッシュ確率PC(wi|wi-2,wi-1)を求める。
Figure 0005459214
ただし、λ1,λ2,λ3はλ1+λ2+λ3=1を満たす0〜1の定数で、予め実験的に定める。キャッシュ確率PCは、キャッシュ内の単語や単語列の統計的性質を元にして、単語wiの生成確率を予測するモデルとなる。
このようにして得られたキャッシュ確率PC(wi|wi-2,wi-1)と、大量の学習用テキストデータを元に予め作成した汎用のN−gram言語モデルの確率PB(wi|wi-2,wi-1)とを次の式(3)により線形結合することで、認識対象となるデータに適応化した言語モデルP(wi|wi-2,wi-1)が得られる。
Figure 0005459214
ただし、λCは0〜1の定数で、予め実験的に定める。適応化した言語モデルは、認識対象となるデータにおける単語や単語列の出現傾向を反映した言語モデルとなる。
しかしながら、上記の技術は、コンテキストの多様性が異なる単語に対して、適切な生成確率を与える言語モデルを作成することができない、という課題を有する。ここで、単語のコンテキストとは、その単語の周辺に存在する単語や単語列のことを意味する。
以下では、前述の課題が生ずる理由について、具体的に説明する。なお、ここでは、単語のコンテキストはその単語に先行する2単語のことであるとして説明する。
まず、コンテキストの多様性が高い単語について考える。例として、桜の開花に関するニュースを解析中に、キャッシュ内に「…,気象庁(t17),が(t16),開花(t3),の(t7),予想(t18),を(t19),…」という単語列が現れた場合において、「開花(t3)」に対する適切なキャッシュ確率PC(wi=開花(t3)|wi-2,wi-1)の与え方を考える。なお、単語の後に付されている「(tn)」は、それぞれの単語を識別するための符号であり、n番目のタームという意味である。以下では、同一の単語には同一の符号を付してある。
このとき、このニュースでは、「気象庁(t17)、が(t16)」というキャッシュ内と同じ特定のコンテキストにおいてのみ「開花(t3)」が出現しやすい訳ではなく、「ソメイヨシノ(t6)、の(t7)」、「こちら(t1)、でも(t2)」、「です(t5)、けれども(t31)」、「都心(t41)、の(t7)」などの多様なコンテキストにおいて「開花(t3)」が出現しやすい、と考えられる。したがって、「開花(t3)」に対するキャッシュ確率PC(wi=開花(t3)|wi-2,wi-1)は、コンテキストwi-2i-1によらずに高い確率を与えるべきである。すなわち、「開花(t3)」のように、コンテキストの多様性が高い単語がキャッシュ内に現れた場合には、キャッシュ確率PCはコンテキストによらずに高い確率を与えるべきである。上記の技術において、コンテキストによらずにキャッシュ確率を高めるためには、前述した式(2)においてλ1を大きくし、λ3を小さくする必要がある。
一方、コンテキストの多様性が低い単語について考える。例として、ニュースを解析中に、キャッシュ内に「…,に(t22),より(t60),ます(t61),と(t10),…」という単語列が現れた場合の、「と(t10)」に対する適切なキャッシュ確率PC(wi=と(t10)|wi-2,wi-1)の与え方を考える。このとき、このニュースでは、「…によりますと…」という複数の単語を組み合わせた表現が出現しやすいものと考えられる。すなわち、このニュースでは、「と(t10)」という単語は「より(t60)、ます(t61)」というキャッシュ内と同じ特定のコンテキストでは出現しやすいが、それ以外のコンテキストにおいては特に出現しやすいわけではない、と考えられる。したがって、「と(t10)」に対するキャッシュ確率PC(wi=と(t10)|wi-2,wi-1)は、キャッシュ内と同じ特定のコンテキスト「より(t60)、ます(t61)」に限定して高い確率を与えるべきである。すなわち、「と(t10)」のように、コンテキストの多様性が低い単語がキャッシュ内に現れた場合には、キャッシュ確率PCはキャッシュ内と同じ特定のコンテキストに限定して高い確率を与えるべきである。上記の技術において、キャッシュ内と同じ特定のコンテキストに限定してキャッシュ確率を高めるためには、前述の式(2)においてλ1を小さくし、λ3を大きくする必要がある。
このように、上記の技術においては、ここで例示した「開花(t3)」と「と(t10)」のようなコンテキストの多様性が異なる単語に対して適切なパラメータが異なる。しかし、上記の技術では、wiがどのような単語であってもλ1,λ2,λ3は一定値である必要があるため、コンテキストの多様性が異なる単語に対して、適切な生成確率を与える言語モデルを作成することができない。
本発明はこのような課題を解決するためのものであり、コンテキストの多様性が異なる単語に対して、適切な生成確率を与える言語モデルを作成することが可能な言語モデル作成装置、言語モデル作成方法、音声認識装置、音声認識方法、およびプログラムを提供することを目的としている。
このような目的を達成するために、本発明にかかる言語モデル作成装置は、記憶部に保存されている入力テキストデータを読み出して、N−gram言語モデルを作成する演算処理部を備え、演算処理部は、入力テキストデータに含まれるそれぞれの単語または単語連鎖ごとに、当該入力テキストデータ内での出現頻度を計数する頻度計数部と、単語または単語連鎖ごとに、当該単語または単語連鎖に先行し得る単語の多様性を示す多様性指標を計算するコンテキスト多様性計算部と、単語または単語連鎖の多様性指標に基づいて、これら単語または単語連鎖の出現頻度をそれぞれ補正して補正出現頻度を算出する頻度補正部と、単語または単語連鎖の補正出現頻度に基づいてN−gram言語モデルを作成するN−gram言語モデル作成部とを含む。
また、本発明にかかる言語モデル作成方法は、記憶部に保存されている入力テキストデータを読み出して、N−gram言語モデルを作成する演算処理部が、入力テキストデータに含まれるそれぞれの単語または単語連鎖ごとに、当該入力テキストデータ内での出現頻度を計数する頻度計数ステップと、単語または単語連鎖ごとに、当該単語または単語連鎖に先行し得る単語の多様性を示す多様性指標を計算するコンテキスト多様性計算ステップと、単語または単語連鎖の多様性指標に基づいて、これら単語または単語連鎖の出現頻度をそれぞれ補正して補正出現頻度を算出する頻度補正ステップと、単語または単語連鎖の補正出現頻度に基づいてN−gram言語モデルを作成するN−gram言語モデル作成ステップとを実行する。
また、本発明にかかる音声認識装置は、記憶部に保存されている入力音声データを音声認識処理する演算処理部を備え、演算処理部は、記憶部に保存されているベース言語モデルに基づいて入力音声データを音声認識処理し、当該入力音声の内容を示すテキストデータからなる認識結果データを出力する認識部と、前述した言語モデル作成方法に基づいて認識結果データからN−gram言語モデルを作成する言語モデル作成部と、N−gram言語モデルに基づいてベース言語モデルを音声データに適応化した適応化言語モデルを作成する言語モデル適応化部と、適応化言語モデルに基づいて入力音声データを再度音声認識処理する再認識部とを含む。
また、本発明にかかる音声認識方法は、記憶部に保存されている入力音声データを音声認識処理する演算処理部が、記憶部に保存されているベース言語モデルに基づいて入力音声データを音声認識処理し、テキストデータからなる認識結果データを出力する認識ステップと、前述した言語モデル作成方法に基づいて認識結果データからN−gram言語モデルを作成する言語モデル作成ステップと、N−gram言語モデルに基づいてベース言語モデルを音声データに適応化した適応化言語モデルを作成する言語モデル適応化ステップと、適応化言語モデルに基づいて入力音声データを再度音声認識処理する再認識ステップとを実行する。
本発明によれば、コンテキストの多様性が異なる単語に対して、適切な生成確率を与える言語モデルを作成することが可能となる。
図1は、本発明の第1の実施形態にかかる言語モデル作成装置の基本構成を示すブロック図である。 図2は、本発明の第1の実施形態にかかる言語モデル作成装置の構成例を示すブロック図である。 図3は、本発明の第1の実施形態にかかる言語モデル作成装置の言語モデル作成処理を示すフローチャートである。 図4は、入力テキストデータ例である。 図5は、単語の出現頻度を示す説明図である。 図6は、2単語連鎖の出現頻度を示す説明図である。 図7は、3単語連鎖の出現頻度を示す説明図である。 図8は、単語「開花(t3)」のコンテキストに関する多様性指標を示す説明図である。 図9は、単語「と(t10)」のコンテキストに関する多様性指標を示す説明図である。 図10は、2単語連鎖「の(t7)、開花(t3)」のコンテキストに関する多様性指標を示す説明図である。 図11は、本発明の第2の実施形態にかかる音声認識装置の基本構成を示すブロック図である。 図12は、本発明の第2の実施形態にかかる音声認識装置の構成例を示すブロック図である。 図13は、本発明の第2の実施形態にかかる音声認識装置の音声認識処理を示すフローチャートである。 図14は、音声認識処理を示す説明図である。
次に、本発明の実施形態について図面を参照して説明する。
[第1の実施形態]
まず、図1を参照して、本発明の第1の実施形態にかかる言語モデル作成装置について説明する。図1は、本発明の第1の実施形態にかかる言語モデル作成装置の基本構成を示すブロック図である。
図1の言語モデル作成装置10は、入力されたテキストデータからN−gram言語モデルを作成する機能を有している。N−gram言語モデルとは、ある時点での単語の生成確率は直前のN−1(Nは2以上の整数)個の単語のみに依存すると仮定し、単語の生成確率を求めるモデルである。すなわち、N−gram言語モデルにおいて、i番目の単語wiの生成確率は、P(wi|wi-N+1 i-1)で与えられる。ここで、条件部のwi-N+1 i-1は(i−N+1)〜(i−1)番目の単語列を表す。
この言語モデル作成装置10には、主な処理部として、頻度計数部15A、コンテキスト多様性計算部15B、頻度補正部15C、およびN−gram言語モデル作成部15Dが設けられている。
頻度計数部15Aは、入力テキストデータ14Aに含まれるそれぞれの単語または単語連鎖ごとに、入力テキストデータ14A内での出現頻度14Bを計数する機能を有している。
コンテキスト多様性計算部15Bは、入力テキストデータ14Aに含まれるそれぞれの単語または単語連鎖ごとに、当該単語または単語連鎖のコンテキストの多様性を示す多様性指標14Cを計算する機能を有している。
頻度補正部15Cは、入力テキストデータ14Aに含まれるそれぞれの単語または単語連鎖の多様性指標14Cに基づいて、当該単語または単語連鎖の出現頻度14Bを補正し、補正出現頻度14Dを算出する機能を有している。
N−gram言語モデル作成部15Dは、入力テキストデータ14Aに含まれるそれぞれの単語または単語連鎖の補正出現頻度14Dに基づいてN−gram言語モデル14Eを作成する機能を有している。
図2は、本発明の第1の実施形態にかかる言語モデル作成装置の構成例を示すブロック図である。
図2の言語モデル作成装置10は、ワークステーション、サーバ装置、パーソナルコンピュータなどの情報処理装置からなり、入力されたテキストデータから、単語の生成確率を与える言語モデルとして、N−gram言語モデルを作成する装置である。
この言語モデル作成装置10には、主な機能部として、入出力インターフェース部(以下、入出力I/F部という)11、操作入力部12、画面表示部13、記憶部14、および演算処理部15が設けられている。
入出力I/F部11は、データ通信回路やデータ入出力回路などの専用回路からなり、外部装置や記録媒体とデータ通信を行うことにより、入力テキストデータ14A、N−gram言語モデル14E、さらにはプログラム14Pなどの各種データをやり取りする機能を有している。
操作入力部12は、キーボードやマウスなどの操作入力装置からなり、オペレータの操作を検出して演算処理部15へ出力する機能を有している。
画面表示部13は、LCDやPDPなどの画面表示装置からなり、演算処理部15からの指示に応じて、操作メニューや各種データを画面表示する機能を有している。
記憶部14は、ハードディスクやメモリなどの記憶装置からなり、演算処理部15で行われる言語モデル作成処理などの各種演算処理に用いる処理情報やプログラム14Pを記憶する機能を有している。
プロクラム14Pは、入出力I/F部11を介して予め記憶部14に保存され、演算処理部15に読み出されて実行されることにより、演算処理部15での各種処理機能を実現するプログラムである。
記憶部14で記憶される主な処理情報として、入力テキストデータ14A、出現頻度14B、多様性指標14C、補正出現頻度14D、およびN−gram言語モデル14Eかある。
入力テキストデータ14Aは、会話や文書などの自然言語テキストデータからなり、予め単語ごとに区分されたデータである。
出現頻度14Bは、入力テキストデータ14Aに含まれるそれぞれの単語または単語連鎖に関する、入力テキストデータ14A内での出現頻度を示すデータである。
多様性指標14Cは、入力テキストデータ14Aに含まれるそれぞれの単語または単語連鎖に関する、当該単語または単語連鎖のコンテキストの多様性を示すデータである。
補正出現頻度14Dは、入力テキストデータ14Aに含まれるそれぞれの単語または単語連鎖の多様性指標14Cに基づいて、当該単語または単語連鎖の出現頻度14Bを補正したデータである。
N−gram言語モデル14Eは、補正出現頻度14Dに基づいて作成された、単語の生成確率を与えるデータである。
演算処理部15は、CPUなどのマルチプロセッサとその周辺回路を有し、記憶部14からプログラム14Pを読み込んで実行することにより、上記ハードウェアとプログラム14Pとを協働させて各種処理部を実現する機能を有している。
演算処理部15で実現される主な処理部としては、前述した頻度計数部15A、コンテキスト多様性計算部15B、頻度補正部15C、およびN−gram言語モデル作成部15Dがある。これら処理部の詳細についての説明は省略する。
[第1の実施形態の動作]
次に、図3を参照して、本発明の第1の実施形態にかかる言語モデル作成装置10の動作について説明する。図3は、本発明の第1の実施形態にかかる言語モデル作成装置の言語モデル作成処理を示すフローチャートである。
言語モデル作成装置10の演算処理部15は、オペレータによる言語モデル作成処理の開始操作が操作入力部12により検出された場合、図3の言語モデル作成処理の実行を開始する。
まず、頻度計数部15Aは、記憶部14の入力テキストデータ14Aに含まれるそれぞれの単語または単語連鎖について、入力テキストデータ14A内における出現頻度14Bを計数し、それぞれの単語または単語連鎖と関連付けて記憶部14へ保存する(ステップ100)。
図4は、入力テキストデータ例である。ここでは、桜の開花に関するニュース音声を音声認識して得られたテキストデータが示されており、それぞれ単語に区分されている。
単語連鎖とは連続した単語の並びのことである。図5は、単語の出現頻度を示す説明図である。図6は、2単語連鎖の出現頻度を示す説明図である。図7は、3単語連鎖の出現頻度を示す説明図である。例えば、図5により、図4の入力テキストデータ14Aには「開花(t3)」という単語が3回現れること、「宣言(t4)」という単語が1回現れること、などが分かる。また、図6により、図4の入力テキストデータ14Aには「開花(t3)、宣言(t4)」という2単語の連鎖が1回現れることなどが分かる。なお、単語の後に付されている「(tn)」は、それぞれの単語を識別するための符号であり、n番目のタームという意味である。同一の単語には同一の符号を付してある。
頻度計数部15Aにおいて、何単語連鎖までを計数すべきかについては、後述するN−gram言語モデル作成部15Dで作成したいN−gram言語モデルのNの値に依存する。頻度計数部15Aでは、少なくともN単語連鎖までを計数する必要がある。その理由は、N−gram言語モデル作成部15Dでは、N単語連鎖の出現頻度を元に、N−gramの確率を計算するためである。例えば、作成したいN−gramがトライグラム(N=3)であれば、頻度計数部15Aでは、図5〜図7に示したように、少なくとも、単語の出現頻度、2単語連鎖の出現頻度、3単語連鎖の出現頻度をそれぞれ計数する必要がある。
次に、コンテキスト多様性計算部15Bは、出現頻度14Bが計数されたそれぞれの単語または単語連鎖に対して、コンテキストの多様性を示す多様性指標を計算し、それぞれの単語または単語連鎖と関連付けて記憶部14へ保存する(ステップ101)。
本発明において、単語または単語連鎖のコンテキストとは、その単語または単語連鎖に先行し得る単語のことを指すものと定義する。例えば、図5中の「宣言(t4)」という単語のコンテキストとしては、「宣言(t4)」に先行し得る単語である「開花(t3)」「安全(t50)」「共同(t51)」などの単語が挙げられる。また、図6中の「の、開花(t3)」という2単語連鎖のコンテキストとしては、「の(t7)、開花(t3)」に先行し得る単語である「桜(t40)」「梅(t42)」「東京(t43)」などの単語が挙げられる。また、本発明では、単語または単語連鎖のコンテキストの多様性とは、その単語または単語連鎖に先行し得る単語の種類がどれだけ多いか、あるいは、先行し得る単語の出現確率がどれだけばらついているか、を表すものとする。
ある単語または単語連鎖が与えられたときに、その単語または単語連鎖のコンテキストの多様性を求める方法として、コンテキストの多様性を計算するための多様性計算用テキストデータを用意する方法がある。すなわち、記憶部14に多様性計算用テキストデータを予め保存しておき、この多様性計算用テキストデータから上記単語や単語連鎖が出現する事例を検索し、この検索結果に基づいて先行する単語の多様性を調べればよい。
図8は、単語「開花(t3)」のコンテキストに関する多様性指標を示す説明図である。例えば、「開花(t3)」という単語のコンテキストの多様性を求める場合、コンテキスト多様性計算部15Bは、記憶部14に保存されている多様性計算用テキストデータ内から「開花(t3)」が出現する事例を収集し、それぞれの事例を先行する単語と共に列挙する。図8を参照すると、当該多様性計算用テキストデータでは、「開花(t3)」に先行する単語として、「の(t7)」が8回、「でも(t30)」が4回、「が(t16)」が5回、「けれども(t31)」が2回、「ところが(t32)」が1回出現したことが分かる。
このとき、多様性計算用テキストデータにおける先行単語の異なり単語数を、コンテキストの多様性とすることができる。すなわち、図8に示した例では、「開花(t3)」に先行する単語として「の(t7)」「でも(t30)」「が(t16)」「けれども(t31)」「ところが(t32)」の5種類の単語があるため、「開花(t3)」のコンテキストの多様性指標14Cはその種類数に応じて5となる。このようにすることで、先行し得る単語が多様であるほど、多様性指標14Cの値は大きくなる。
また、多様性計算用テキストデータにおける先行単語の出現確率のエントロピーを、コンテキストの多様性指標14Cとすることもできる。単語または単語連鎖Wiに先行する各単語wの出現確率をそれぞれp(w)とした場合、単語または単語連鎖WiのエントロピーH(Wi)は、次の式(4)で表される。
Figure 0005459214
図8に示した例では、「開花(t3)」に先行する各単語の出現確率は「の(t7)」が0.4、「でも(t30)」が0.2、「が(t16)」が0.25、「けれども(t31)」が0.1、「ところが(t32)」が0.05である。したがって、この場合の「開花(t3)」のコンテキストの多様性指標14Cは、各先行単語の出現確率のエントロピーを計算すると、H(Wi)=−0.4×log0.4−0.2×log0.2−0.25×log0.25−0.1×log0.1−0.05×log0.05=2.04、となる。このようにすることで、先行し得る単語が多様であり、さらにばらつきが大きいほど、多様性指標14Cの値は大きくなる。
一方、図9は、単語「と(t10)」のコンテキストに関する多様性指標を示す説明図である。ここでは、「と(t10)」という単語に対して同様に、多様性計算用テキストデータに出現する事例を収集し、それぞれの事例を先行単語と共に列挙している。この図9によれば、「と(t10)」のコンテキストの多様性指標14Cは、先行単語の異なり単語数で求めた場合は3、先行単語の出現確率のエントロピーで求めた場合は0.88となる。このように、コンテキストの多様性が低い単語は、コンテキストの多様性が高い単語と比べて、先行単語の異なり単語数も出現確率のエントロピーも小さな値となる。
また、図10は、2単語連鎖「の(t7)、開花(t3)」のコンテキストに関する多様性指標を示す説明図である。ここでは、多様性計算用テキストデータの中から「の(t7)、開花(t3)」という2単語連鎖が出現する事例を収集し、それぞれの事例を先行単語と共に列挙している。この図10によれば、「の(t7)、開花(t3)」のコンテキストの多様性は、先行単語の異なり単語数で求めた場合は7、先行単語の出現確率のエントロピーで求めた場合は2.72、となる。このように、コンテキストの多様性は、単語のみならず単語連鎖に対しても求めることができる。
用意する多様性計算用テキストデータとしては、大規模なテキストデータが望ましい。多様性計算用テキストデータ大規模であるほど、コンテキストの多様性を求めたい単語や単語連鎖が出現する数が多くなることが期待でき、それだけ求まる値の信頼性が高まるからである。そのような大規模なテキストデータとしては、例えば、大量の新聞記事テキストなどが考えられる。あるいは、本実施例においては、例えば、後述する音声認識装置20で用いるベース言語モデル24Bを作成するときに用いたテキストデータを多様性計算用テキストデータとしてもよい。
あるいは、多様性計算用テキストデータとして、入力テキストデータ14A、すなわち言語モデルの学習用テキストデータを用いてもよい。このようにすることで、学習用テキストデータにおける、単語や単語連鎖のコンテキストの多様性の特徴を捉えることができる。
一方、コンテキスト多様性計算部15Bは、多様性計算用テキストデータを用意することなく、与えられた単語や単語連鎖の品詞情報をもとに、その単語や単語連鎖のコンテキストの多様性を推定することもできる。
具体的には、与えられた単語や単語連鎖の品詞の種別ごとに、コンテキストの多様性指標を予め定めた対応関係をテーブルとして用意して、記憶部14に保存しておけばよい。例えば、名詞はコンテキストの多様性指標を大きく、終助詞はコンテキストの多様性指標を小さくするような対応テーブルが考えられる。このとき、各品詞にどのような多様性指標を割り当てるかは、事前の評価実験により、実際に様々な値を割り当てて実験的に最適な数値を定めればよい。
したがって、コンテキスト多様性計算部15Bは、記憶部14に保存されている、各品詞の種別とその多様性指標との対応関係のうちから、当該単語または単語連鎖を構成する単語の品詞の種別と対応する多様性指標を、当該単語または単語連鎖に関する多様性指標として取得すればよい。
ただし、全ての品詞に対して異なる最適な多様性指標を割り当てることは難しいため、品詞が自立語であるか否か、あるいは、品詞が名詞であるか否か、によってのみ異なる多様性指標を割り当てた対応テーブルを用意するようにしてもよい。
単語や単語連鎖の品詞情報をもとに、その単語や単語連鎖のコンテキストの多様性を推定することで、コンテキスト多様性計算用の大規模なテキストデータを用意することなく、コンテキストの多様性を求めることが可能となる。
次に、頻度補正部15Cは、出現頻度14Bを求めたそれぞれの単語または単語連鎖について、コンテキスト多様性計算部15Bにより求められた当該コンテキストの多様性指標14Cに応じて、記憶部14が記憶するそれぞれの単語または単語連鎖の出現頻度14Bを補正し、得られた補正出現頻度14Dを記憶部14に保存する(ステップ102)。
このとき、コンテキスト多様性計算部15Bにより求められたコンテキストの多様性指標14Cの値が大きいほど、その単語または単語連鎖の出現頻度が大きくなるように補正する。具体的には、ある単語または単語連鎖Wの出現頻度14BをC(W)、多様性指標14CをV(W)とした場合、補正出現頻度14Dを示すC‘(W)は、例えば次の式(5)により求められる。
Figure 0005459214
前述した例においては、図8の結果から「開花(t3)」のコンテキストの多様性指標14Cをエントロピーで求めた場合、V(開花)=2.04、図5の結果から「開花(t3)」の出現頻度14BはC(開花(t3))=3であるため、補正出現頻度14DであるC’(開花(t3))=3×2.04=6.12となる。
このように、コンテキスト多様性計算部15Bでは、コンテキストの多様性が高い単語または単語連鎖ほど、その出現頻度が大きくなるように補正される。なお、補正の式は前述した式(5)に限るものではなく、V(W)が大きいほど出現頻度が大きくなるように補正する式であれば様々な式が考えられることはもちろんである。
頻度補正部15Cは、出現頻度14Bを求めた全ての単語または単語連鎖の補正が完了していなければ(ステップ103:NO)、ステップ102へ戻って、未補正の単語または単語連鎖の出現頻度14Bの補正を行う。
なお、図3の言語モデル作成処理手順では、コンテキスト多様性計算部15Bによって、出現頻度14Bを求めた全ての単語または単語連鎖に対してコンテキストの多様性指標14Cを求めてから(ステップ101)、頻度補正部15Cによって、それぞれの単語または単語連鎖に対して出現頻度の補正を行う場合が、一例として示されている(ステップ102,103のループ処理)。しかし、出現頻度14Bを求めたそれぞれの単語または単語連鎖に対して、コンテキストの多様性指標14Cの計算と出現頻度14Bの補正を同時に行ってもよいことはもちろんである。すなわち、図3のステップ101,102,103でループ処理を行ってもよい。
一方、出現頻度14Bを求めた全ての単語または単語連鎖の補正が完了した場合(ステップ103:YES)、N−gram言語モデル作成部15Dは、これら単語または単語連鎖の補正出現頻度14Dを用いてN−gram言語モデル14Eを作成し、記憶部14に保存する(ステップ104)。ここで、N−gram言語モデル14Eは、直前のN−1個の単語にのみ依存して単語の生成確率を与える言語モデルである。
具体的には、N−gram言語モデル作成部15Dは、まず、記憶部14が記憶するN単語連鎖の補正出現頻度14Dを用いて、N−gram確率を求める。次に、求められた各N−gram確率を線形補間などにより組み合わせることで、N−gram言語モデル14Eを作成する。
補正出現頻度14DにおけるN単語連鎖の出現頻度をCN(wi-N+1,…,wi-1,wi)とした場合、単語wiの生成確率を表すN−gram確率PN-gram(wi|wi-N+1,…,wi-1)は、次の式(6)により求められる。
Figure 0005459214
なお、単語wiの出現頻度C(wi)からは、ユニグラム確率Punigram(wi)が、次の式(7)により求まる。
Figure 0005459214
このようにして求められたN−gram確率を組み合わせることで、N−gram言語モデル14Eを作成する。具体的には、例えば、それぞれのN−gram確率に重みをつけて線形補間すればよい。次の式(8)は、ユニグラム確率、バイグラム確率およびトライグラム確率を線形補間完することで、トライグラム言語モデル(N=3)を作成する場合を示している。
Figure 0005459214
ただし、λ1,λ2,λ3はλ1+λ2+λ3=1を満たす0〜1の定数で、事前の評価実験により、実際に様々な値を割り当てて実験的に最適な定数を定めればよい。
なお、前述したとおり、頻度計数部15Aにおいて長さNの単語連鎖まで計数している場合に、N−gram言語モデル作成部15Dは、N−gram言語モデル14Eを作成できる。すなわち、頻度計数部15Aにて、単語の出現頻度、2単語連鎖の出現頻度、3単語連鎖の出現頻度14Bまでを計数していた場合、トライグラム言語モデル(N=3)を作成することができる。なお、トライグラム言語モデル作成には、単語の出現頻度、2単語連鎖の出現頻度の計数は必須ではないが、計数することが望ましい。
[第1の実施形態の効果]
このように、本実施形態では、頻度計数部15Aで、入力テキストデータ14Aに含まれるそれぞれの単語または単語連鎖ごとに、入力テキストデータ14A内での出現頻度14Bを計数し、コンテキスト多様性計算部15Bで、入力テキストデータ14Aに含まれるそれぞれの単語または単語連鎖ごとに、当該単語または単語連鎖のコンテキストの多様性を示す多様性指標14Cを計算し、頻度補正部15Cで、入力テキストデータ14Aに含まれるそれぞれの単語または単語連鎖の多様性指標14Cに基づいて、当該単語または単語連鎖の出現頻度14Bを補正し、それぞれの単語または単語連鎖ごとに得られた補正出現頻度14Dに基づいて、N−gram言語モデル作成部15DでN−gram言語モデル14Eを作成している。
したがって、このようにして作成されたN−gram言語モデル14Eは、コンテキストの多様性が異なる単語に対しても、適切な生成確率を与える言語モデルとなる。その理由を以下で説明する。
まず、「開花(t3)」のようにコンテキストの多様性が高い単語については、頻度補正部15Cによってその出現頻度が大きくなるように補正される。前述した図8の例によれば、多様性指標14Cとして先行単語の出現確率のエントロピーを用いた場合、「開花(t3)」の出現頻度C(開花(t3))は、2.04倍に補正される。一方で、「と(t10)」のようにコンテキストの多様性が低い単語については、コンテキストの多様性が高い単語に比べて、頻度補正部15Cによってその出現頻度が小さくなるように補正される。前述した図9の例によれば、多様性指標14Cとして先行単語の出現確率のエントロピーを用いた場合、「と(t10)」の出現頻度C(と(t10))は、0.88倍に補正される。
したがって、「開花(t3)」のようなコンテキストの多様性が高い単語、言い換えれば、多様なコンテキストにおいて出現し得る単語は、N−gram言語モデル作成部15Dが、前述した式(7)によって各単語のユニグラム確率を計算するときに、大きなユニグラム確率となる。これは、前述した式(8)によって求められる言語モデルにおいて、「開花(t3)」という単語がコンテキストによらずに出現しやすい、という望ましい性質を持つことを意味する。
一方、「と(t10)」のようなコンテキストの多様性が低い、言い換えれば、特定のコンテキストに限定して出現する単語は、N−gram言語モデル作成部15Dが、前述した式(7)によって各単語のユニグラム確率を計算するときに、小さなユニグラム確率となる。これは、前述した式(8)によって求められる言語モデルにおいて、「と(t10)」という単語がコンテキストと無関係には出現しない、という望ましい性質を持つことを意味する。
このように、本実施形態によれば、コンテキストの多様性が異なる単語に対しても、適切な生成確率を与える言語モデルを作成することが可能となる。
[第2の実施形態]
次に、図11を参照して、本発明の第2の実施形態にかかる音声認識装置について説明する。図11は、本発明の第2の実施形態にかかる音声認識装置の基本構成を示すブロック図である。
図11の音声認識装置20は、入力された音声データを音声認識処理し、認識結果としてその音声内容を示すテキストデータを出力する機能を有している。この音声認識装置20の特徴は、ベース言語モデル24Bに基づき入力音声データ24Aを認識した認識結果データ24Cを元にして、第1の実施形態で説明した言語モデル作成装置10の特徴構成からなる言語モデル作成部25BでN−gram言語モデル24Dを作成し、このN−gram言語モデル24Dに基づきベース言語モデル24Bを適応化して得られた適応化言語モデル24Eを用いて、再度、入力音声データ24Aを音声認識処理する点にある。
この音声認識装置20には、主な処理部として、認識部25A、言語モデル作成部25B、言語モデル適応化部25C、および再認識部25Dが設けられている。
認識部25Aは、ベース言語モデル24Bに基づいて入力音声データ24Aを音声認識処理し、その認識結果を示すテキストデータとして認識結果データ24Cを出力する機能を有している。
言語モデル作成部25Bは、第1の実施形態で説明した言語モデル作成装置10の特徴構成を有し、認識結果データ24Cからなる入力テキストデータに基づきN−gram言語モデル24Dを作成する機能を有している。
言語モデル適応化部25Cは、N−gram言語モデル24Dに基づいて、ベース言語モデル24Bを適応化することにより、適応化言語モデル24Eを作成する機能を有している。
再認識部25Dは、適応化言語モデル24Eに基づいて音声データ24Aを音声認識処理し、その認識結果を示すテキストデータとして再認識結果データ24Fを出力する機能を有している。
図12は、本発明の第2の実施形態にかかる音声認識装置の構成例を示すブロック図である。
図12の音声認識装置20は、ワークステーション、サーバ装置、パーソナルコンピュータなどの情報処理装置からなり、入力された音声データを音声認識処理することにより、認識結果としてその音声内容を示すテキストデータを出力する装置である。
この音声認識装置20には、主な機能部として、入出力インターフェース部(以下、入出力I/F部という)21、操作入力部22、画面表示部23、記憶部24、および演算処理部25が設けられている。
入出力I/F部21は、データ通信回路やデータ入出力回路などの専用回路からなり、外部装置や記録媒体とデータ通信を行うことにより、入力音声データ24A、再認識結果データ24F、さらにはプログラム24Pなどの各種データをやり取りする機能を有している。
操作入力部22は、キーボードやマウスなどの操作入力装置からなり、オペレータの操作を検出して演算処理部25へ出力する機能を有している。
画面表示部23は、LCDやPDPなどの画面表示装置からなり、演算処理部25からの指示に応じて、操作メニューや各種データを画面表示する機能を有している。
記憶部24は、ハードディスクやメモリなどの記憶装置からなり、演算処理部25で行われる言語モデル作成処理などの各種演算処理に用いる処理情報やプログラム24Pを記憶する機能を有している。
プロクラム24Pは、入出力I/F部21を介して予め記憶部24に保存され、演算処理部25に読み出されて実行されることにより、演算処理部25での各種処理機能を実現するプログラムである。
記憶部24で記憶される主な処理情報として、入力音声データ24A、ベース言語モデル24B、認識結果データ24C、N−gram言語モデル24D、適応化言語モデル24E、および再認識結果データ24Fがある。
入力音声データ24Aは、会議音声、講演音声、放送音声など、自然言語からなる音声信号が符号化されて得られたデータである。入力音声データ24Aについては、予め用意されたアーカイブデータでも良いし、マイクなどからオンラインで入力されるデータでも良い。
ベース言語モデル24Bは、大量のテキストデータを用いて予め学習した汎用のN−gram言語モデルなどからなり、単語の生成確率を与える言語モデルである。
認識結果データ24Cは、ベース言語モデル24Bに基づいて入力音声データ24Aを音声認識処理して得られた自然言語テキストデータからなり、予め単語ごとに区分されたデータである。
N−gram言語モデル24Dは、認識結果データ24Cから作成した、単語の生成確率を与えるN−gram言語モデルである。
適応化言語モデル24Eは、N−gram言語モデル24Dに基づいて、ベース言語モデル24Bを適応化して得られた言語モデルである。
再認識結果データ24Fは、適応化言語モデル24Eに基づいて入力音声データ24Aを音声認識処理して得られたテキストデータである。
演算処理部25は、CPUなどのマルチプロセッサとその周辺回路を有し、記憶部24からプログラム24Pを読み込んで実行することにより、上記ハードウェアとプログラム24Pとを協働させて各種処理部を実現する機能を有している。
演算処理部25で実現される主な処理部としては、前述した認識部25A、言語モデル作成部25B、言語モデル適応化部25C、および再認識部25Dがある。これら処理部の詳細についての説明は省略する。
[第2の実施形態の動作]
次に、図13を参照して、本発明の第2の実施形態にかかる音声認識装置20の動作について説明する。図13は、本発明の第2の実施形態にかかる音声認識装置20の音声認識処理を示すフローチャートである。
音声認識装置20の演算処理部25は、オペレータによる音声認識処理の開始操作が操作入力部22により検出された場合、図13の音声認識処理の実行を開始する。
まず、認識部25Aは、記憶部24に予め保存されている音声データ24Aを読み込み、公知の大語彙連続音声認識処理を適用することで、音声データ24Aをテキストデータに変換し、認識結果データ24Cとして記憶部24へ保存する(ステップ200)。この際、音声認識処理のための言語モデルとしては、記憶部24に予め保存されているベース言語モデル24Bを用いる。また、音響モデルとしては、例えば、音素を単位とした公知のHMM(Hidden Markov Model:隠れマルコフモデル)による音響モデルなどを用いればよい。
図14は、音声認識処理を示す説明図である。一般に、大語彙連続音声認識処理の結果は単語列として得られるため、認識結果テキストは単語を単位として区分されている。なお、図14に示したのは、桜の開花に関するニュース音声からなる入力音声データ24Aに対する認識処理であり、得られた認識結果データ24Cのうち、4行目の「会館(t52)」は「開花(t4)」の認識誤りである。
続いて、言語モデル作成部25Bは、記憶部24に保存されている認識結果データ24Cを読み出し、この認識結果データ24Cに基づいてN−gram言語モデル24Dを作成し、記憶部24へ保存する(ステップ201)。この際、言語モデル作成部25Bは、前述の図1で示したように、第1の実施形態にかかる言語モデル作成装置10の特徴構成として、頻度計数部15A、コンテキスト多様性計算部15B、頻度補正部15C、およびN−gram言語モデル作成部15Dを含んでいる。言語モデル作成部25Bは、前述した図3の言語モデル作成処理にしたがって、認識結果データ24Cからなる入力テキストデータからN−gram言語モデル24Dを作成する。言語モデル作成部25Bの詳細については、第1の実施形態と同様であり、ここでの詳細な説明は省略する。
次に、言語モデル適応化部25Cは、記憶部24のN−gram言語モデル24Dに基づいて、記憶部24のベース言語モデル24Bを適応化することにより、適応化言語モデル24Eを作成し、記憶部24に保存する(ステップ202)。具体的には、例えばベース言語モデル24BとN−gram言語モデル24Dとを線形結合により組み合わせることで適応化言語モデル24Eを作成すれば良い。
ベース言語モデル24Bは、認識部25Aが音声認識に用いた汎用の言語モデルである。一方、N−gram言語モデル24Dは、記憶部24の認識結果データ24Cを学習用テキストデータとして作成された言語モデルであり、認識対象となる音声データ24Aに特有の特徴を反映するモデルである。したがって、両言語モデルを線形結合することで、認識対象となる音声データに適した言語モデルが得られることが期待できる。
続いて、再認識部25Dは、適応化言語モデル24Eを用いて、記憶部24が記憶する音声データ24Aを、再度、音声認識処理し、その認識結果を再認識結果データ24Fとして記憶部24へ保存する(ステップ203)。この際、認識部25Aは、認識結果をワードグラフとして求めて記憶部24へ保存し、再認識部25Dは、記憶部24が記憶するワードグラフを、適応化言語モデル24Eを用いてリスコアリングすることで再認識結果データ24Fを出力しても良い。
[第2の実施形態の効果]
このように、本実施形態では、ベース言語モデル24Bに基づき入力音声データ24Aを認識した認識結果データ24Cを元にして、第1の実施形態で説明した言語モデル作成装置10の特徴構成からなる言語モデル作成部25BでN−gram言語モデル24Dを作成し、このN−gram言語モデル24Dに基づきベース言語モデル24Bを適応化して得られた適応化言語モデル24Eを用いて、再度、入力音声データ24Aを音声認識処理している。
第1の実施形態にかかる言語モデル作成装置で得られるN−gram言語モデルが、特に有効と考えられるのは、学習用テキストデータの量が比較的少ないときである。音声のように学習用テキストデータが少ない場合、ある単語や単語連鎖のコンテキスト全てを学習テキストデータによって網羅できないと考えられる。例えば、桜の開花に関する言語モデルを構築することを考えるとき、学習用テキストデータ量が少ないと、学習用テキストデータには(桜(t40)、の(t7)、開花(t3))という単語連鎖は登場しても、(桜(t40)、が(t16)、開花(t3))という単語連鎖は登場しない可能性がある。このような場合、例えば前述した関連技術に基づきN−gram言語モデルを作成すると、「桜が開花…」という文の生成確率は非常に小さくなってしまう。このため、コンテキストの多様性が低い単語の予測精度に悪影響を与え、音声認識精度が低下する原因となる。
しかし、本発明によれば「開花(t3)」という単語のコンテキストの多様性が高いことから、学習用テキストデータ中に(桜(t40)、の(t7)、開花(t3))が現れただけでも、コンテキストによらずに「開花(t3)」のユニグラム確率を向上する。その結果、「桜が開花…」という文の生成確率も高めることが出来る。さらに、コンテキストの多様性が低い単語についてはユニグラム確率を向上しない。このため、コンテキストの多様性が低い単語の予測精度にも悪影響を与えることはなく、音声認識精度が維持される。
このように、本発明の言語モデル作成装置は学習用テキストデータの量が少ないときに特に有効である。このため、本実施例で示したような音声認識処理において、入力音声データの認識結果テキストデータからN−gram言語モデルを作成することにより、極めて有効な言語モデルを作成できる。したがって、このようにして得られた言語モデルを元のベース言語モデルへ結合することにより、認識対象となる入力音声データに適した言語モデルが得られ、結果として音声認識精度を大幅に改善することが可能となる。
[実施形態の拡張]
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解しうる様々な変更をすることができる。
また、以上では日本語を例として、言語モデルの作成技術さらには音声認識技術について説明したが、これらは日本語に限定されるものではなく、複数の単語の連鎖により文が構成されるあらゆる言語に対して、前述と同様に適用でき、前述と同様の作用効果が得られる。
この出願は、2008年8月20日に出願された日本出願特願2008−211493を基礎とする優先権を主張し、その開示のすべてをここに取り込む。
本発明は、音声認識や文字認識などのテキスト情報を出力する様々な自動認識システムや、自動認識システムをコンピュータに実現するためのプログラムといった用途に適用できる。また、統計的言語モデルを活用した様々な自然言語処理システムといった用途にも適用可能である。

Claims (16)

  1. 記憶部に保存されている入力テキストデータを読み出して、N−gram言語モデルを作成する演算処理部を備え、
    前記演算処理部は、
    前記入力テキストデータに含まれるそれぞれの単語または単語連鎖ごとに、当該入力テキストデータ内での出現頻度を計数する頻度計数部と、
    前記単語または単語連鎖ごとに、当該単語または単語連鎖に先行し得る単語の多様性を示す多様性指標を計算するコンテキスト多様性計算部と、
    前記単語または単語連鎖の多様性指標に基づいて、これら単語または単語連鎖の出現頻度をそれぞれ補正して補正出現頻度を算出する頻度補正部と、
    前記単語または単語連鎖の補正出現頻度に基づいてN−gram言語モデルを作成するN−gram言語モデル作成部と
    を含むことを特徴とする言語モデル作成装置。
  2. 請求項1に記載の言語モデル作成装置において、
    前記コンテキスト多様性計算部は、前記記憶部に保存されている多様性計算用テキストデータから、当該単語または単語連鎖に先行する各単語を検索し、この検索結果に基づいて、当該単語または単語連鎖に関する多様性指標を計算する
    ことを特徴とする言語モデル作成装置。
  3. 請求項2に記載の言語モデル作成装置において、
    前記コンテキスト多様性計算部は、前記検索結果から算出した当該単語または単語連鎖に先行する各単語の出現確率に基づいて、これら出現確率のエントロピーを当該単語または単語連鎖に関する多様性指標として求めることを特徴とする言語モデル作成装置。
  4. 請求項3に記載の言語モデル作成装置において、
    前記頻度補正部は、前記エントロピーが大きい前記単語または単語連鎖ほど当該出現頻度が大きくなるように前記出現頻度を補正することを特徴とする言語モデル作成装置。
  5. 請求項2に記載の言語モデル作成装置において、
    前記コンテキスト多様性計算部は、前記検索結果に基づいて当該単語または単語連鎖に先行する各単語の異なり単語数を当該単語または単語連鎖に関する多様性指標として求めることを特徴とする言語モデル作成装置。
  6. 請求項5に記載の言語モデル作成装置において、
    前記頻度補正部は、前記異なり単語数が大きい前記単語または単語連鎖ほど当該出現頻度が大きくなるように前記出現頻度を補正することを特徴とする言語モデル作成装置。
  7. 請求項1に記載の言語モデル作成装置において、
    前記コンテキスト多様性計算部は、前記記憶部に保存されている、各品詞の種別とその多様性指標との対応関係のうちから、当該単語または単語連鎖を構成する単語の品詞の種別と対応する多様性指標を、当該単語または単語連鎖に関する多様性指標として取得することを特徴とする言語モデル作成装置。
  8. 請求項7に記載の言語モデル作成装置において、
    前記頻度補正部は、前記多様性指標が大きい前記単語または単語連鎖ほど前記出現頻度が大きくなるように前記出現頻度を補正することを特徴とする言語モデル作成装置。
  9. 請求項7に記載の言語モデル作成装置において、
    前記対応関係は、前記品詞が自立語であるか否か、あるいは前記品詞が名詞であるか否か、の区別ごとに、それぞれ異なる多様性指標が定められていることを特徴とする言語モデル作成装置。
  10. 記憶部に保存されている入力テキストデータを読み出して、N−gram言語モデルを作成する演算処理部が、
    前記入力テキストデータに含まれるそれぞれの単語または単語連鎖ごとに、当該入力テキストデータ内での出現頻度を計数する頻度計数ステップと、
    前記単語または単語連鎖ごとに、当該単語または単語連鎖に先行し得る単語の多様性を示す多様性指標を計算するコンテキスト多様性計算ステップと、
    前記単語または単語連鎖の多様性指標に基づいて、これら単語または単語連鎖の出現頻度をそれぞれ補正して補正出現頻度を算出する頻度補正ステップと、
    前記単語または単語連鎖の補正出現頻度に基づいてN−gram言語モデルを作成するN−gram言語モデル作成ステップと
    を実行することを特徴とする言語モデル作成方法。
  11. 記憶部に保存されている入力テキストデータを読み出して、N−gram言語モデルを作成する演算処理部を有するコンピュータに、
    前記入力テキストデータに含まれるそれぞれの単語または単語連鎖ごとに、当該入力テキストデータ内での出現頻度を計数する頻度計数ステップと、
    前記単語または単語連鎖ごとに、当該単語または単語連鎖に先行し得る単語の多様性を示す多様性指標を計算するコンテキスト多様性計算ステップと、
    前記単語または単語連鎖の多様性指標に基づいて、これら単語または単語連鎖の出現頻度をそれぞれ補正して補正出現頻度を算出する頻度補正ステップと、
    前記単語または単語連鎖の補正出現頻度に基づいてN−gram言語モデルを作成するN−gram言語モデル作成ステップと
    からなる各ステップを、
    前記演算処理部を用いて実行させるためのプログラム。
  12. 記憶部に保存されている入力音声データを音声認識処理する演算処理部を備え、
    前記演算処理部は、
    前記記憶部に保存されているベース言語モデルに基づいて前記入力音声データを音声認識処理し、当該入力音声の内容を示すテキストデータからなる認識結果データを出力する認識部と、
    請求項10に記載の言語モデル作成方法に基づいて前記認識結果データからN−gram言語モデルを作成する言語モデル作成部と、
    前記N−gram言語モデルに基づいて前記ベース言語モデルを前記音声データに適応化した適応化言語モデルを作成する言語モデル適応化部と、
    前記適応化言語モデルに基づいて前記入力音声データを再度音声認識処理する再認識部と
    を含むことを特徴とする音声認識装置。
  13. 記憶部に保存されている入力音声データを音声認識処理する演算処理部が、
    前記記憶部に保存されているベース言語モデルに基づいて入力音声データを音声認識処理し、テキストデータからなる認識結果データを出力する認識ステップと、
    請求項10に記載の言語モデル作成方法に基づいて前記認識結果データからN−gram言語モデルを作成する言語モデル作成ステップと、
    前記N−gram言語モデルに基づいて前記ベース言語モデルを前記音声データに適応化した適応化言語モデルを作成する言語モデル適応化ステップと、
    前記適応化言語モデルに基づいて前記入力音声データを再度音声認識処理する再認識ステップと
    を実行することを特徴とする音声認識方法。
  14. 記憶部に保存されている入力音声データを音声認識処理する演算処理部を有するコンピュータに、
    前記記憶部に保存されているベース言語モデルに基づいて入力音声データを音声認識処理し、テキストデータからなる認識結果データを出力する認識ステップと、
    請求項10に記載の言語モデル作成方法に基づいて前記認識結果データからN−gram言語モデルを作成する言語モデル作成ステップと、
    前記N−gram言語モデルに基づいて前記ベース言語モデルを前記音声データに適応化した適応化言語モデルを作成する言語モデル適応化ステップと、
    前記適応化言語モデルに基づいて前記入力音声データを再度音声認識処理する再認識ステップと
    からなる各ステップを、
    前記演算処理部を用いて実行させるためのプログラム。
  15. 記憶部に保存されている入力テキストデータを読み出して、N−gram言語モデルを作成する演算処理部を有するコンピュータに、
    前記入力テキストデータに含まれるそれぞれの単語または単語連鎖ごとに、当該入力テキストデータ内での出現頻度を計数する頻度計数ステップと、
    前記単語または単語連鎖ごとに、当該単語または単語連鎖に先行し得る単語の多様性を示す多様性指標を計算するコンテキスト多様性計算ステップと、
    前記単語または単語連鎖の多様性指標に基づいて、これら単語または単語連鎖の出現頻度をそれぞれ補正して補正出現頻度を算出する頻度補正ステップと、
    前記単語または単語連鎖の補正出現頻度に基づいてN−gram言語モデルを作成するN−gram言語モデル作成ステップと
    からなる各ステップを、
    前記演算処理部を用いて実行させるためのプログラムを記録した記録媒体。
  16. 記憶部に保存されている入力音声データを音声認識処理する演算処理部を有するコンピュータに、
    前記記憶部に保存されているベース言語モデルに基づいて入力音声データを音声認識処理し、テキストデータからなる認識結果データを出力する認識ステップと、
    請求項10に記載の言語モデル作成方法に基づいて前記認識結果データからN−gram言語モデルを作成する言語モデル作成ステップと、
    前記N−gram言語モデルに基づいて前記ベース言語モデルを前記音声データに適応化した適応化言語モデルを作成する言語モデル適応化ステップと、
    前記適応化言語モデルに基づいて前記入力音声データを再度音声認識処理する再認識ステップと
    からなる各ステップを、
    前記演算処理部を用いて実行させるためのプログラムを記録した記録媒体。
JP2010525708A 2008-08-20 2009-08-20 言語モデル作成装置、言語モデル作成方法、音声認識装置、音声認識方法、プログラム、および記録媒体 Active JP5459214B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010525708A JP5459214B2 (ja) 2008-08-20 2009-08-20 言語モデル作成装置、言語モデル作成方法、音声認識装置、音声認識方法、プログラム、および記録媒体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008211493 2008-08-20
JP2008211493 2008-08-20
PCT/JP2009/064596 WO2010021368A1 (ja) 2008-08-20 2009-08-20 言語モデル作成装置、言語モデル作成方法、音声認識装置、音声認識方法、プログラム、および記録媒体
JP2010525708A JP5459214B2 (ja) 2008-08-20 2009-08-20 言語モデル作成装置、言語モデル作成方法、音声認識装置、音声認識方法、プログラム、および記録媒体

Publications (2)

Publication Number Publication Date
JPWO2010021368A1 JPWO2010021368A1 (ja) 2012-01-26
JP5459214B2 true JP5459214B2 (ja) 2014-04-02

Family

ID=41707242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010525708A Active JP5459214B2 (ja) 2008-08-20 2009-08-20 言語モデル作成装置、言語モデル作成方法、音声認識装置、音声認識方法、プログラム、および記録媒体

Country Status (3)

Country Link
US (1) US20110161072A1 (ja)
JP (1) JP5459214B2 (ja)
WO (1) WO2010021368A1 (ja)

Families Citing this family (153)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8510109B2 (en) 2007-08-22 2013-08-13 Canyon Ip Holdings Llc Continuous speech transcription performance indication
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9973450B2 (en) 2007-09-17 2018-05-15 Amazon Technologies, Inc. Methods and systems for dynamically updating web service profile information by parsing transcribed message strings
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
EP3091535B1 (en) 2009-12-23 2023-10-11 Google LLC Multi-modal input on an electronic device
US11416214B2 (en) 2009-12-23 2022-08-16 Google Llc Multi-modal input on an electronic device
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
JP5276610B2 (ja) * 2010-02-05 2013-08-28 日本放送協会 言語モデル生成装置、そのプログラムおよび音声認識システム
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9099087B2 (en) * 2010-09-03 2015-08-04 Canyon IP Holdings, LLC Methods and systems for obtaining language models for transcribing communications
US9262397B2 (en) 2010-10-08 2016-02-16 Microsoft Technology Licensing, Llc General purpose correction of grammatical and word usage errors
WO2012105231A1 (ja) * 2011-02-03 2012-08-09 日本電気株式会社 モデル適応化装置、モデル適応化方法およびモデル適応化用プログラム
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8855997B2 (en) * 2011-07-28 2014-10-07 Microsoft Corporation Linguistic error detection
US9009025B1 (en) 2011-12-27 2015-04-14 Amazon Technologies, Inc. Context-based utterance recognition
JP5888729B2 (ja) * 2012-01-10 2016-03-22 国立研究開発法人情報通信研究機構 言語モデル結合装置、言語処理装置、およびプログラム
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9043205B2 (en) 2012-06-21 2015-05-26 Google Inc. Dynamic language model
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US20140222435A1 (en) * 2013-02-01 2014-08-07 Telenav, Inc. Navigation system with user dependent language mechanism and method of operation thereof
EP3809407A1 (en) 2013-02-07 2021-04-21 Apple Inc. Voice trigger for a digital assistant
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014189399A1 (en) 2013-05-22 2014-11-27 Axon Doo A mixed-structure n-gram language model
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101922663B1 (ko) 2013-06-09 2018-11-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US9251135B2 (en) 2013-08-13 2016-02-02 International Business Machines Corporation Correcting N-gram probabilities by page view information
JP6277659B2 (ja) * 2013-10-15 2018-02-14 三菱電機株式会社 音声認識装置および音声認識方法
JP6077980B2 (ja) * 2013-11-19 2017-02-08 日本電信電話株式会社 地域関連キーワード決定装置、地域関連キーワード決定方法、および地域関連キーワード決定プログラム
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
JP5932869B2 (ja) * 2014-03-27 2016-06-08 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
KR102386863B1 (ko) 2015-09-09 2022-04-13 삼성전자주식회사 사용자 기반 언어 모델 생성 장치, 방법 및 음성 인식 장치
US10748528B2 (en) 2015-10-09 2020-08-18 Mitsubishi Electric Corporation Language model generating device, language model generating method, and recording medium
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10417328B2 (en) * 2018-01-05 2019-09-17 Searchmetrics Gmbh Text quality evaluation methods and processes
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
CN109062888B (zh) * 2018-06-04 2023-03-31 昆明理工大学 一种出现错误文本输入时的自纠正方法
CN110600011B (zh) * 2018-06-12 2022-04-01 中国移动通信有限公司研究院 一种语音识别方法、装置和计算机可读存储介质
CN109190124B (zh) * 2018-09-14 2019-11-26 北京字节跳动网络技术有限公司 用于分词的方法和装置
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
CN109753648B (zh) * 2018-11-30 2022-12-20 平安科技(深圳)有限公司 词链模型的生成方法、装置、设备及计算机可读存储介质
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002082690A (ja) * 2000-09-05 2002-03-22 Nippon Telegr & Teleph Corp <Ntt> 言語モデル生成方法、音声認識方法及びそのプログラム記録媒体
JP2002342323A (ja) * 2001-05-15 2002-11-29 Mitsubishi Electric Corp 言語モデル学習装置およびそれを用いた音声認識装置ならびに言語モデル学習方法およびそれを用いた音声認識方法ならびにそれらの方法を記憶した記憶媒体
JP2006085179A (ja) * 2003-01-15 2006-03-30 Matsushita Electric Ind Co Ltd 放送受信方法、放送受信システム、記録媒体、及びプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7860706B2 (en) * 2001-03-16 2010-12-28 Eli Abir Knowledge system method and appparatus
US7103534B2 (en) * 2001-03-31 2006-09-05 Microsoft Corporation Machine learning contextual approach to word determination for text input via reduced keypad keys
US20050055199A1 (en) * 2001-10-19 2005-03-10 Intel Corporation Method and apparatus to provide a hierarchical index for a language model data structure
US7143035B2 (en) * 2002-03-27 2006-11-28 International Business Machines Corporation Methods and apparatus for generating dialog state conditioned language models
US7467087B1 (en) * 2002-10-10 2008-12-16 Gillick Laurence S Training and using pronunciation guessers in speech recognition
CN1757229A (zh) * 2003-01-15 2006-04-05 松下电器产业株式会社 广播接收方法、广播接收系统、记录媒体及程序
US7565372B2 (en) * 2005-09-13 2009-07-21 Microsoft Corporation Evaluating and generating summaries using normalized probabilities
US7590626B2 (en) * 2006-10-30 2009-09-15 Microsoft Corporation Distributional similarity-based models for query correction
US7877258B1 (en) * 2007-03-29 2011-01-25 Google Inc. Representing n-gram language models for compact storage and fast retrieval
EP2183685A4 (en) * 2007-08-01 2012-08-08 Ginger Software Inc AUTOMATIC CONTEXT-RELATED LANGUAGE CORRECTION AND EXPANSION USING AN INTERNET CORP
US9892730B2 (en) * 2009-07-01 2018-02-13 Comcast Interactive Media, Llc Generating topic-specific language models

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002082690A (ja) * 2000-09-05 2002-03-22 Nippon Telegr & Teleph Corp <Ntt> 言語モデル生成方法、音声認識方法及びそのプログラム記録媒体
JP2002342323A (ja) * 2001-05-15 2002-11-29 Mitsubishi Electric Corp 言語モデル学習装置およびそれを用いた音声認識装置ならびに言語モデル学習方法およびそれを用いた音声認識方法ならびにそれらの方法を記憶した記憶媒体
JP2006085179A (ja) * 2003-01-15 2006-03-30 Matsushita Electric Ind Co Ltd 放送受信方法、放送受信システム、記録媒体、及びプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200401130022; 金野弘明: 'かな・漢字文字列を単位とした言語モデルの検討' 情報処理学会研究報告 Vol.2002 No.121 , p.165-170, 社団法人情報処理学会 *
CSNG200600972028; 高橋力矢: 'N-gramカウントの信頼性を考慮したバックオフスムージング' 日本音響学会2004年春季研究発表会講演論文集-I- 2-8-2, 20040317, p.63-64, 社団法人日本音響学会 *
JPN6013060159; 高橋力矢: 'N-gramカウントの信頼性を考慮したバックオフスムージング' 日本音響学会2004年春季研究発表会講演論文集-I- 2-8-2, 20040317, p.63-64, 社団法人日本音響学会 *
JPN6013060161; 金野弘明: 'かな・漢字文字列を単位とした言語モデルの検討' 情報処理学会研究報告 Vol.2002 No.121 , p.165-170, 社団法人情報処理学会 *

Also Published As

Publication number Publication date
WO2010021368A1 (ja) 2010-02-25
US20110161072A1 (en) 2011-06-30
JPWO2010021368A1 (ja) 2012-01-26

Similar Documents

Publication Publication Date Title
JP5459214B2 (ja) 言語モデル作成装置、言語モデル作成方法、音声認識装置、音声認識方法、プログラム、および記録媒体
JP3782943B2 (ja) 音声認識装置、コンピュータ・システム、音声認識方法、プログラムおよび記録媒体
US7043422B2 (en) Method and apparatus for distribution-based language model adaptation
JP4528535B2 (ja) テキストから単語誤り率を予測するための方法および装置
AU2010346493B2 (en) Speech correction for typed input
US11024298B2 (en) Methods and apparatus for speech recognition using a garbage model
JP2006058899A (ja) 発話検索のためのラティス・ベースの検索システムおよび方法
JP5932869B2 (ja) N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム
US20100100379A1 (en) Voice recognition correlation rule learning system, voice recognition correlation rule learning program, and voice recognition correlation rule learning method
JP2005208648A (ja) スイッチング状態空間モデルによるマルチモーダル的変分推論を使用して音声を認識する方法
JP5180800B2 (ja) 統計的発音変異モデルを記憶する記録媒体、自動音声認識システム及びコンピュータプログラム
CN111326144B (zh) 语音数据处理方法、装置、介质和计算设备
JP2011164175A (ja) 言語モデル生成装置、そのプログラムおよび音声認識システム
US20050187767A1 (en) Dynamic N-best algorithm to reduce speech recognition errors
JP5068225B2 (ja) 音声ファイルの検索システム、方法及びプログラム
JP2010078877A (ja) 音声認識装置、音声認識方法及び音声認識プログラム
CN117043856A (zh) 高效流式非递归设备上的端到端模型
JP2006012179A (ja) 自然言語処理装置および自然言語処理方法
KR20060057921A (ko) 대화형 음성인식 시스템의 인식오류 수정장치 및 그 방법
CN113536029B (zh) 一种对齐音频和文本的方法、装置、电子设备及存储介质
JP6078435B2 (ja) 記号列変換方法、音声認識方法、それらの装置及びプログラム
US9251135B2 (en) Correcting N-gram probabilities by page view information
KR100277690B1 (ko) 화행 정보를 이용한 음성 인식 방법
JP2005091518A (ja) 音声認識装置及び音声認識プログラム
JP2001109491A (ja) 連続音声認識装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131230

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5459214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150