JP6211995B2 - Language model creation device, language model creation method and program - Google Patents

Language model creation device, language model creation method and program Download PDF

Info

Publication number
JP6211995B2
JP6211995B2 JP2014117524A JP2014117524A JP6211995B2 JP 6211995 B2 JP6211995 B2 JP 6211995B2 JP 2014117524 A JP2014117524 A JP 2014117524A JP 2014117524 A JP2014117524 A JP 2014117524A JP 6211995 B2 JP6211995 B2 JP 6211995B2
Authority
JP
Japan
Prior art keywords
language model
gram
gram language
mixed
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014117524A
Other languages
Japanese (ja)
Other versions
JP2015230441A (en
Inventor
亮 増村
亮 増村
浩和 政瀧
浩和 政瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014117524A priority Critical patent/JP6211995B2/en
Publication of JP2015230441A publication Critical patent/JP2015230441A/en
Application granted granted Critical
Publication of JP6211995B2 publication Critical patent/JP6211995B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

この発明は、音声認識で利用される言語モデルを作成する技術に関し、詳しくは、複数のバックオフn-gram言語モデルを混合して対象タスクに対して合致する言語モデルを構築する技術に関する。   The present invention relates to a technique for creating a language model used in speech recognition, and more particularly, to a technique for constructing a language model that matches a target task by mixing a plurality of back-off n-gram language models.

音声認識では、言語的な予測のために言語モデルが必要である。音声認識では言語モデルとしてn-gram言語モデルが一般的に利用される。n-gram言語モデルの学習方法は、公知の技術である(例えば、非特許文献1参照)。n-gram言語モデルは、音声認識のデコーディングと非常に相性の良い形である。n-gram言語モデルは学習テキストがあれば容易に学習することが可能であり、その学習方法はこれまで様々に提案されている。n-gram言語モデル以外にも様々な言語モデルが提案されているが、音声認識のデコーディングとの相性的にn-gram言語モデル以外の言語モデルが音声認識で利用されることは非常に少ない。   Speech recognition requires a language model for linguistic prediction. In speech recognition, an n-gram language model is generally used as a language model. The learning method of the n-gram language model is a known technique (for example, see Non-Patent Document 1). The n-gram language model is very compatible with speech recognition decoding. The n-gram language model can be easily learned if there is a learning text, and various learning methods have been proposed so far. Various language models have been proposed in addition to the n-gram language model, but language models other than the n-gram language model are very rarely used for speech recognition in compatibility with decoding of speech recognition. .

高精度な音声認識を実現する方法として、認識したい音声のタスク(以下、対象タスクという)に特化した言語モデルを使用することが有効であることが知られている。特化とは、その対象タスクでよく使われる言語現象に高い生起確率を与えることである。つまり、ニュース音声を認識する際はニュース音声に特化した言語モデルを、コールセンター音声を認識する際はコールセンター音声に特化した言語モデルを使用すると有効である。この特定の対象タスクに特化した言語モデルは、その対象タスクの音声を人手により書き起こしを行うことで得られたテキスト(以下、書き起こしテキストともいう)を用いて学習することが一般的な方法である。しかしながら、人手による書き起こしを大量に集めることは、時間や人件費といったコストの面が大きく困難である。したがって、対象タスクの書き起こしテキストを用いずに、対象タスクに関する別の言語資源をうまく利用して言語モデルを構築することが一般的である。この技術は言語モデルタスク適応と呼ばれる。例えばコンタクトセンタの場合であれば、そのコンタクトセンタに関連するドキュメント(例えば、Webテキスト)など、複数の言語資源を組み合わせて利用する。言語モデルタスク適応については公知の研究領域であり、非特許文献2における記述を参考にされたい。言語モデルタスク適応の代表的な技術としては、非特許文献3の技術が挙げられる。この技術では、複数の外部言語資源それぞれについてバックオフn-gram言語モデルを構築し、それぞれの確率を重み付きで足し合わせることで(線形補間によって)、言語モデルを構築する。その際に各モデルの混合重みを、開発データとよばれる対象タスクのテキストデータを利用して最適化する枠組みが確立している。この技術は非常に単純な手法にもかかわらず、現在でも多様に利用されている。その理由は、対象タスクに関する外部言語資源として、書き起こしテキストと同等の質のテキストデータが得られる場合では非常に強力に動作するからである。   As a method for realizing highly accurate speech recognition, it is known to use a language model specialized for a speech task to be recognized (hereinafter referred to as a target task). Specialization means giving a high probability of occurrence to a language phenomenon often used in the target task. That is, it is effective to use a language model specialized for news speech when recognizing news speech and to use a language model specialized for call center speech when recognizing call center speech. The language model specialized for this specific target task is generally learned by using the text (hereinafter also referred to as the transcription text) obtained by manually transcribe the speech of the target task. Is the method. However, collecting a large amount of human transcripts is very difficult in terms of costs such as time and labor costs. Therefore, it is common to construct a language model by making good use of another language resource related to the target task without using the transcription of the target task. This technique is called language model task adaptation. For example, in the case of a contact center, a plurality of language resources such as documents (for example, Web text) related to the contact center are used in combination. Language model task adaptation is a well-known research area, so please refer to the description in Non-Patent Document 2. As a typical technique of language model task adaptation, the technique of Non-Patent Document 3 can be cited. In this technology, a back-off n-gram language model is constructed for each of a plurality of external language resources, and the language models are constructed by adding the respective probabilities with weights (by linear interpolation). At that time, a framework for optimizing the mixture weight of each model using text data of the target task called development data has been established. Despite the very simple technique, this technology is still widely used. The reason is that, as an external language resource related to the target task, it operates very powerfully when text data of the same quality as the transcription text is obtained.

図1を参照して、複数のバックオフn-gram言語モデルを混合して言語モデルを構築する従来技術について説明する。従来の言語モデル作成装置は、開発データを記憶する開発データ記憶部10と、バックオフn-gram言語モデルを記憶するK個のバックオフn-gram言語モデル記憶部201,…,20Kと、開発データとK個のバックオフn-gram言語モデルとを最適に混合して単一の混合バックオフn-gram言語モデルを生成する言語モデル混合部30と、混合バックオフn-gram言語モデルを記憶する混合バックオフn-gram言語モデル記憶部60を含む。ここではバックオフ3-gram言語モデルを例にとり説明する。 With reference to FIG. 1, a conventional technique for constructing a language model by mixing a plurality of back-off n-gram language models will be described. A conventional language model creation device includes a development data storage unit 10 that stores development data, and K back-off n-gram language model storage units 20 1 ,..., 20 K that store back-off n-gram language models. A language model mixing unit 30 that optimally mixes development data and K backoff n-gram language models to generate a single mixed backoff n-gram language model, and a mixed backoff n-gram language model The mixed back-off n-gram language model storage unit 60 is stored. Here, a back-off 3-gram language model will be described as an example.

単語列wi-2,wi-1,wiに対するk番目のバックオフn-gram言語モデルの3-gram確率をPk(wi|wi-2,wi-1)とし、混合重みをλkとすると、3-gram混合の確率値Pmix(wi|wi-2,wi-1)は式(1)で表される。 Pk (w i | w i-2 , w i-1 ) is the 3-gram probability of the k-th back-off n-gram language model for the word strings w i-2 , w i-1 , w i and mixed If the weight is λ k , the probability value P mix (w i | w i−2 , w i−1 ) of the 3-gram mixture is expressed by the following equation (1).

Figure 0006211995
Figure 0006211995

なお、Pk(wi|wi-2,wi-1)は、バックオフを考慮して、式(2)のように表される。 Note that P k (w i | w i−2 , w i−1 ) is expressed as in equation (2) in consideration of backoff.

Figure 0006211995
Figure 0006211995

ここで、αk(wi-2,wi-1)はバックオフ時にかかる係数であり、周知の方法で求めることができる。 Here, α k (w i−2 , w i−1 ) is a coefficient applied at the time of back-off, and can be obtained by a known method.

このときの各混合重みλkは開発データを利用して最適化できる。開発データの単語列をw1…wLとすると、混合重みλkはEMアルゴリズムに基づき再帰的に式(3)のように求めることができる。 Each mixing weight λ k at this time can be optimized using development data. When the word string of the development data is w 1 ... W L , the mixture weight λ k can be recursively obtained as shown in Equation (3) based on the EM algorithm.

Figure 0006211995
Figure 0006211995

ここで、右辺のλkは一回前に求めた混合重みであり、左辺のλ’kは更新された混合重みである。これにより、開発データに対して最適な混合重みを決定できる。 Here, λ k on the right side is the blending weight obtained one time before, and λ ′ k on the left side is the updated blending weight. As a result, it is possible to determine the optimum mixing weight for the development data.

バックオフn-gram言語モデルは、図2に示すように、n-gramの次数nごとに確率モデルを内包した構造を持っている。例えば、バックオフ3-gram言語モデルでは、内部的に1-gram言語モデル、2-gram言語モデル、3-gram言語モデルを持っており、高次のオーダの確率モデルで確率が与えられない場合は、低次のオーダの確率モデルで確率を与える構造を持っている。   As shown in FIG. 2, the back-off n-gram language model has a structure including a probability model for each n-gram order n. For example, the back-off 3-gram language model has a 1-gram language model, a 2-gram language model, and a 3-gram language model internally. Has a structure that gives a probability in a low-order order probability model.

北研二、「言語と計算(4) 確率的言語モデル」、東京大学出版会、1999年11月、pp. 57-62Kenji Kita, “Language and Computation (4) Stochastic Language Model”, The University of Tokyo Press, November 1999, pp. 57-62 鹿野清宏、伊藤克亘、河原達也、武田一哉、山本幹雄、「IT Text 音声認識システム」、オーム社、2001年5月、p. 68Kiyohiro Shikano, Katsunobu Ito, Tatsuya Kawahara, Kazuya Takeda, Mikio Yamamoto, “IT Text Speech Recognition System”, Ohmsha, May 2001, p. 68 R. Iyer, M. Ostendorf, “Modeling long distance dependence in language: topic mixtures versus dynamic cache models”, IEEE Transactions on Speech and Audio Processing, vol. 7, no. 1, pp. 30-39, Jan 1999.R. Iyer, M. Ostendorf, “Modeling long distance dependence in language: topic mixture versus dynamic cache models”, IEEE Transactions on Speech and Audio Processing, vol. 7, no. 1, pp. 30-39, Jan 1999.

従来技術では、n-gram言語モデル単位、つまり元の言語資源単位で混合重みを与えている。つまり、3つのn-gram言語モデルがあれば、3つの混合重みが付与されることになる。しかしながら、n-gram言語モデルはバックオフという構造を持ち、n-gramの次数ごとに確率モデルを内包した構造を持っている。それにも拘わらず、従来技術では内包する構造を考慮することなく、言語モデル全体で混合重みを与えている。従来の方法では、言語モデル全体としての混合重みは最適化されているが、低次のオーダの混合重みは最適化されていないのが現状である。したがって、従来技術で混合した言語モデルにおいては、高次のオーダで単語エントリが見つかる場合は高い性能を実現できるものの、エントリが見つからず低次のオーダの言語モデルを利用しなければいけない場合の性能は最適化されていない。特に、対象タスクにおける珍しい単語連鎖に対しては、しばしば1-gram確率を利用する必要があり、最適化されてない確率値を利用しても高い性能を実現できない。   In the prior art, a mixing weight is given in units of n-gram language models, that is, in units of original language resources. That is, if there are three n-gram language models, three blending weights are given. However, the n-gram language model has a structure called back-off, and has a structure including a probability model for each n-gram order. Nevertheless, in the prior art, the mixture weight is given to the entire language model without considering the included structure. In the conventional method, the mixture weight of the entire language model is optimized, but the mixture weight of the low-order order is not optimized. Therefore, in the language model mixed in the prior art, when a word entry is found in a higher order, high performance can be realized. Is not optimized. In particular, for unusual word chains in the target task, it is often necessary to use 1-gram probabilities, and high performance cannot be realized even if unoptimized probability values are used.

この発明は、対象タスクにおける珍しい単語連鎖に対しても高い性能を実現できるタスク適応を実施することを目指す。従来技術の課題は、n-gram言語モデルを混合する際に、低次のオーダに対して最適化できていないことと言える。そこで、この発明では、低次のオーダに対しても最適なモデル混合を実現することを目的とする。   The present invention aims to implement task adaptation that can realize high performance even for an unusual word chain in a target task. It can be said that the problem of the prior art is that the n-gram language model cannot be optimized for the lower order when mixing. Accordingly, an object of the present invention is to realize optimal model mixing even for low-order orders.

上記の課題を解決するために、この発明の言語モデル作成装置は、開発データを記憶する開発データ記憶部と、1-gram言語モデルと2-gram言語モデルと3-gram言語モデルとを含む複数のバックオフn-gram言語モデルを記憶するバックオフn-gram言語モデル記憶部と、開発データと複数の1-gram言語モデルとを用いて混合1-gram言語モデルを生成する1-gram言語モデル混合部と、開発データと複数の2-gram言語モデルと混合1-gram言語モデルとを用いて混合2-gram言語モデルを生成する2-gram言語モデル混合部と、開発データと複数の3-gram言語モデルと混合1-gram言語モデルと混合2-gram言語モデルとを用いて混合3-gram言語モデルを生成する3-gram言語モデル混合部と、混合1-gram言語モデルと混合2-gram言語モデルと混合3-gram言語モデルとを統合して混合バックオフn-gram言語モデルを生成する言語モデル統合部と、を含む。   In order to solve the above-described problems, a language model creation device according to the present invention includes a development data storage unit that stores development data, and a plurality of 1-gram language models, 2-gram language models, and 3-gram language models. A 1-gram language model that generates a mixed 1-gram language model by using a backoff n-gram language model storage unit that stores a back-off n-gram language model and development data and multiple 1-gram language models A mixing unit, a 2-gram language model mixing unit that generates a mixed 2-gram language model using development data, a plurality of 2-gram language models, and a mixed 1-gram language model, and development data and a plurality of 3-gram language models A 3-gram language model mixing unit that generates a mixed 3-gram language model using a gram language model, a mixed 1-gram language model, and a mixed 2-gram language model, and a mixed 1-gram language model and a mixed 2-gram Integrated back-off n-gram language model by integrating language model and mixed 3-gram language model Including a language model integration unit for generating a.

この発明の言語モデル作成技術によれば、n-gram言語モデルの次数ごとに混合重みを与えることで、低次のオーダに対しても最適なモデル混合を実現する。これにより、従来よりも対象タスクに最適化した言語モデルを構築することができる。特に、未知の単語連鎖を多く含む場合において、従来よりも高精度な音声認識が期待できる。   According to the language model creation technique of the present invention, by providing a blending weight for each order of an n-gram language model, optimal model blending is realized even for low-order orders. As a result, a language model optimized for the target task can be constructed. In particular, when many unknown word chains are included, higher-accuracy speech recognition than before can be expected.

図1は、従来の言語モデル作成装置の機能構成を例示する図である。FIG. 1 is a diagram illustrating a functional configuration of a conventional language model creation device. 図2は、バックオフn-gram言語モデルの構造を概念的に例示する図である。FIG. 2 is a diagram conceptually illustrating the structure of the back-off n-gram language model. 図3は、実施形態の言語モデル作成装置の機能構成を例示する図である。FIG. 3 is a diagram illustrating a functional configuration of the language model creation device according to the embodiment. 図4は、実施形態の言語モデル作成方法の処理フローを例示する図である。FIG. 4 is a diagram illustrating a processing flow of the language model creation method according to the embodiment.

以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. In addition, the same number is attached | subjected to the component which has the same function in drawing, and duplication description is abbreviate | omitted.

この発明では、複数のn-gram言語モデルを混合する際に、次数nのオーダごとに異なる混合重みを与える。バックオフn-gram言語モデルでは高次のオーダが低次のオーダに依存する構造を持つため、低次のオーダから順番に最適化することで、バックオフを行うことを考慮した最適化を実現することができる。   In the present invention, when a plurality of n-gram language models are mixed, a different mixing weight is given to each order of the order n. The back-off n-gram language model has a structure in which higher-order orders depend on lower-order orders, so optimization in consideration of back-off is realized by optimizing in order from lower-order orders. can do.

[実施形態]
実施形態の言語モデル作成装置は、図3に示すように、従来と同様に、開発データ記憶部10及び混合バックオフn-gram言語モデル記憶部60を例えば含み、さらに、K個のバックオフn-gram言語モデル記憶部201,…,20K、1-gram言語モデル混合部31、2-gram言語モデル混合部32、3-gram言語モデル混合部33、混合1-gram言語モデル記憶部41、混合2-gram言語モデル記憶部42、混合3-gram言語モデル記憶部43及び言語モデル統合部50を例えば含む。
[Embodiment]
As shown in FIG. 3, the language model creation apparatus of the embodiment includes, for example, a development data storage unit 10 and a mixed back-off n-gram language model storage unit 60, as in the related art, and further includes K back-off n. -gram language model storage unit 20 1 ,..., 20 K , 1-gram language model mixing unit 31, 2-gram language model mixing unit 32, 3-gram language model mixing unit 33, mixed 1-gram language model storage unit 41 The mixed 2-gram language model storage unit 42, the mixed 3-gram language model storage unit 43, and the language model integration unit 50 are included, for example.

言語モデル作成装置は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。言語モデル作成装置は、例えば、中央演算処理装置の制御のもとで各処理を実行する。言語モデル作成装置に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて読み出されて他の処理に利用される。また、言語モデル作成装置の各処理部の少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。   The language model creation device is, for example, a special program configured by reading a special program into a known or dedicated computer having a central processing unit (CPU), a main memory (RAM), and the like. Device. For example, the language model creation device executes each process under the control of the central processing unit. Data input to the language model creation device and data obtained in each process are stored in the main storage device, for example, and the data stored in the main storage device is read out as necessary and used for other processing. Is done. In addition, at least a part of each processing unit of the language model creation device may be configured by hardware such as an integrated circuit.

言語モデル作成装置が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。言語モデル作成装置が備える各記憶部は、それぞれ論理的に分割されていればよく、一つの物理的な記憶装置に記憶されていてもよい。   Each storage unit included in the language model creation device includes, for example, a main storage device such as a RAM (Random Access Memory), an auxiliary storage device configured by a semiconductor memory element such as a hard disk, an optical disk, or a flash memory (Flash Memory), or It can be configured with middleware such as a relational database or key-value store. Each storage unit included in the language model creation device is only required to be logically divided, and may be stored in one physical storage device.

開発データ記憶部10には、開発データが記憶されている。開発データは、音声認識の対象タスクに関するテキストデータである。以下、開発データに含まれる単語列をw1…wLとする。 Development data is stored in the development data storage unit 10. The development data is text data related to the target task of speech recognition. Hereinafter, the word string included in the development data is assumed to be w 1 ... W L.

バックオフn-gram言語モデル記憶部20k(k=1,…,K)には、k番目のバックオフn-gram言語モデルが記憶されている。バックオフn-gram言語モデルは、n-gramの次数ごとに確率モデルを内包した構造を持っている。この実施形態では、図2に示すように、バックオフn-gram言語モデル20は、1-gram言語モデル21と2-gram言語モデル22と3-gram言語モデル23とを内包しており、高次のオーダの確率モデルで確率が与えられない場合は、低次のオーダの確率モデルで確率を与えるバックオフ構造を持っている。K個のバックオフn-gram言語モデルは、それぞれ異なる外部言語資源から構築する。外部言語資源は、音声認識の対象タスクに合致した任意のテキストを選択すればよい。 The back-off n-gram language model storage unit 20 k (k = 1,..., K) stores the k-th back-off n-gram language model. The back-off n-gram language model has a structure including a probability model for each n-gram order. In this embodiment, as shown in FIG. 2, the back-off n-gram language model 20 includes a 1-gram language model 21, a 2-gram language model 22, and a 3-gram language model 23. When the probability is not given by the probability model of the next order, it has a back-off structure that gives the probability by the probability model of the lower order. K back-off n-gram language models are constructed from different external language resources. As the external language resource, any text that matches the target task of speech recognition may be selected.

この実施形態では、K個のバックオフn-gram言語モデル記憶部201,…,20Kそれぞれにバックオフn-gram言語モデルが記憶されるように構成するものとしたが、1個のバックオフn-gram言語モデル記憶部20にK個のバックオフn-gram言語モデルが記憶されるように構成しても構わない。 In this embodiment, the back-off n-gram language model is configured to be stored in each of the K back-off n-gram language model storage units 20 1 ,..., 20 K. The off-n-gram language model storage unit 20 may be configured to store K back-off n-gram language models.

図4を参照して、実施形態の言語モデル作成方法を説明する。   With reference to FIG. 4, the language model creation method of the embodiment will be described.

ステップS1において、1-gram言語モデル混合部31は、開発データ記憶部10に記憶された開発データと、K個のバックオフn-gram言語モデル記憶部201,…,20Kにそれぞれ記憶されたバックオフn-gram言語モデルに含まれる1-gram言語モデルとを入力として、1個の混合1-gram言語モデルを生成する。生成した混合1-gram言語モデルは混合1-gram言語モデル記憶部41に記憶する。 In step S1, 1-gram language model mixing unit 31, a development data stored in the developed data storage unit 10, K number of backoff n-gram language model storage unit 20 1, ..., are respectively stored in the 20 K One mixed 1-gram language model is generated using as input the 1-gram language model included in the backoff n-gram language model. The generated mixed 1-gram language model is stored in the mixed 1-gram language model storage unit 41.

以下、1-gram言語モデル混合部31の処理をより具体的に説明する。単語wiに対するk番目のバックオフn-gram言語モデルの1-gram確率をPk(wi)とし、混合重みをλkとすると、1-gram混合の確率値Pmix(wi)は式(4)で表される。 Hereinafter, the process of the 1-gram language model mixing unit 31 will be described more specifically. When the 1-gram probability of the k-th backoff n-gram language model for the word w i is P k (w i ) and the mixture weight is λ k , the probability value P mix (w i ) of the 1-gram mixture is It is represented by Formula (4).

Figure 0006211995
Figure 0006211995

このときの各混合重みλkは開発データを利用して最適化できる。開発データの単語列をw1…wLとすると、λkはEMアルゴリズムに基づき再帰的に式(5)のように求めることができる。 Each mixing weight λ k at this time can be optimized using development data. If the word string of the development data is w 1 ... W L , λ k can be recursively obtained as shown in Equation (5) based on the EM algorithm.

Figure 0006211995
Figure 0006211995

ここで、右辺のλkは一回前に求めた混合重みであり、左辺のλ’kは更新された混合重みである。 Here, λ k on the right side is the blending weight obtained one time before, and λ ′ k on the left side is the updated blending weight.

EMアルゴリズムでは、初期の混合重みはすべての混合重みを等価とするのが一般的である。例えば、K=2であれば、λk=1/2と与えればよい。なお、EMアルゴリズムの繰り返し回数は、例えば固定数を予め設定しておくことができる。例えば、100回繰り返す。これにより、混合重みλkの値が最適化できるので、1-gram混合の確率値Pmix(wi)を決定できる。例えば、P1(今日)=0.01、P2(今日)=0.05であり、λ1=0.4、λ2=0.6ならば、Pmix(今日)=0.01*0.4+0.05*0.6と決定できる。 In the EM algorithm, the initial blend weight is generally equivalent to all blend weights. For example, if K = 2, λ k = 1/2 may be given. Note that the number of repetitions of the EM algorithm can be set in advance, for example, a fixed number. For example, repeat 100 times. As a result, the value of the mixing weight λ k can be optimized, so that the probability value P mix (w i ) of 1-gram mixing can be determined. For example, if P 1 (today) = 0.01, P 2 (today) = 0.05, and λ 1 = 0.4 and λ 2 = 0.6, then P mix (today) = 0.01 * 0.4 + 0.05 * 0.6 can be determined.

ステップS2において、2-gram言語モデル混合部32は、開発データ記憶部10に記憶された開発データと、K個のバックオフn-gram言語モデル記憶部201,…,20Kにそれぞれ記憶されたバックオフn-gram言語モデルに含まれるバックオフ2-gram言語モデルと、混合1-gram言語モデル記憶部41に記憶された混合1-gram言語モデルとを入力として、1個の混合2-gram言語モデルを生成する。生成した混合2-gram言語モデルは混合2-gram言語モデル記憶部42に記憶する。 In step S2, 2-gram language model mixing unit 32, a development data stored in the developed data storage unit 10, K number of backoff n-gram language model storage unit 20 1, ..., are respectively stored in the 20 K The back-off 2-gram language model included in the back-off n-gram language model and the mixed 1-gram language model stored in the mixed 1-gram language model storage unit 41 are used as inputs. Generate a gram language model. The generated mixed 2-gram language model is stored in the mixed 2-gram language model storage unit 42.

以下、2-gram言語モデル混合部32の処理をより具体的に説明する。単語列wi-1,wiに対するk番目のバックオフn-gram言語モデルの2-gram確率をPk(wi|wi-1)とし、混合重みをλkとすると、2-gram混合の確率値Pmix(wi|wi-1)は式(6)で表される。 Hereinafter, the process of the 2-gram language model mixing unit 32 will be described more specifically. If the 2-gram probability of the k-th backoff n-gram language model for the word sequence w i-1 , w i is P k (w i | w i-1 ) and the mixture weight is λ k , 2-gram The mixing probability value P mix (w i | w i-1 ) is expressed by equation (6).

Figure 0006211995
Figure 0006211995

ここで、α(wi-1)はバックオフ時にかかる係数項であり、周知の方法で求めることができる。 Here, α (w i-1 ) is a coefficient term applied at the time of back-off, and can be obtained by a known method.

このときの各混合重みλkは開発データを利用して最適化できる。開発データの単語列をw1…wLとすると、混合重みλkはEMアルゴリズムに基づき再帰的に式(7)のように求めることができる。 Each mixing weight λ k at this time can be optimized using development data. If the word string of the development data is w 1 ... W L , the mixture weight λ k can be recursively obtained as shown in Equation (7) based on the EM algorithm.

Figure 0006211995
Figure 0006211995

ここで、右辺のλkは一回前に求めた混合重みであり、左辺のλ’kは更新された混合重みである。これも1-gram混合のときと同様に最適化することで、混合2-gram言語モデルを求めることができる。 Here, λ k on the right side is the blending weight obtained one time before, and λ ′ k on the left side is the updated blending weight. By optimizing the same as in the case of 1-gram mixing, a mixed 2-gram language model can be obtained.

ステップS3において、3-gram言語モデル混合部33は、開発データ記憶部10に記憶された開発データと、K個のバックオフn-gram言語モデル記憶部201,…,20Kにそれぞれ記憶されたバックオフn-gram言語モデルに含まれるバックオフ3-gram言語モデルと、混合1-gram言語モデル記憶部41に記憶された混合1-gram言語モデルと、混合2-gram言語モデル記憶部42に記憶された混合2-gram言語モデルとを入力として、1個の混合3-gram言語モデルを生成する。生成した混合3-gram言語モデルは混合3-gram言語モデル記憶部43に記憶する。 In step S3, 3-gram language model mixing unit 33, a development data stored in the developed data storage unit 10, K number of backoff n-gram language model storage unit 20 1, ..., are respectively stored in the 20 K The back-off 3-gram language model included in the back-off n-gram language model, the mixed 1-gram language model stored in the mixed 1-gram language model storage unit 41, and the mixed 2-gram language model storage unit 42 The mixed 2-gram language model stored in is input, and one mixed 3-gram language model is generated. The generated mixed 3-gram language model is stored in the mixed 3-gram language model storage unit 43.

以下、3-gram言語モデル混合部33の処理をより具体的に説明する。単語列wi-2,wi-1,wiに対するk番目のバックオフn-gram言語モデルの3-gram確率をPk(wi|wi-2,wi-1)、混合重みをλkとすると、3-gram混合の確率値Pmix(wi|wi-2,wi-1)は式(8)で表される。 Hereinafter, the process of the 3-gram language model mixing unit 33 will be described more specifically. P k (w i | w i-2 , w i-1 ), the mixture weight of the 3-gram probability of the k-th back-off n-gram language model for the word sequence w i-2 , w i-1 , w i Is a λ k , the probability value P mix (w i | w i−2 , w i−1 ) of the 3-gram mixture is expressed by equation (8).

Figure 0006211995
Figure 0006211995

ここで、α(wi-2,wi-1)はバックオフ時にかかる係数項であり、周知の方法で求めることができる。 Here, α (w i−2 , w i−1 ) is a coefficient term applied at the time of back-off, and can be obtained by a known method.

このときの各混合重みλkは開発データを利用して最適化できる。開発データの単語列をw1…wLとすると、混合重みλkはEMアルゴリズムに基づき再帰的に式(9)のように求めることができる。 Each mixing weight λ k at this time can be optimized using development data. When the word string of the development data is w 1 ... W L , the mixture weight λ k can be recursively obtained as shown in Equation (9) based on the EM algorithm.

Figure 0006211995
Figure 0006211995

ここで、右辺のλkは一回前に求めた混合重みであり、左辺のλ’kは更新された混合重みである。これも1-gram混合や2-gram混合のときと同様に最適化することで、混合2-gram言語モデルを求めることができる。 Here, λ k on the right side is the blending weight obtained one time before, and λ ′ k on the left side is the updated blending weight. A mixed 2-gram language model can be obtained by optimizing the same as in the case of 1-gram mixing or 2-gram mixing.

ステップS4において、言語モデル統合部50は、混合1-gram言語モデル記憶部41に記憶された混合1-gram言語モデルと、混合2-gram言語モデル記憶部42に記憶された混合2-gram言語モデルと、混合3-gram言語モデル記憶部43に記憶された混合3-gram言語モデルとを入力として、各言語モデルをまとめて1つにすることで、1個の混合バックオフn-gram言語モデルを生成する。生成した混合バックオフn-gram言語モデルを混合バックオフn-gram言語モデル記憶部60へ記憶する。   In step S4, the language model integration unit 50 includes the mixed 1-gram language model stored in the mixed 1-gram language model storage unit 41 and the mixed 2-gram language model stored in the mixed 2-gram language model storage unit 42. By inputting the model and the mixed 3-gram language model stored in the mixed 3-gram language model storage unit 43, each language model is combined into one to obtain one mixed back-off n-gram language Generate a model. The generated mixed back-off n-gram language model is stored in the mixed back-off n-gram language model storage unit 60.

[応用例]
上記の実施形態ではバックオフ3-gram言語モデルの混合を例としたが、バックオフ4-gram言語モデル、バックオフ5-gram言語モデルも同様の枠組みで混合することが可能である。例えば、バックオフ4-gram言語モデルを混合する場合には、K個のバックオフn-gram言語モデルに含まれるバックオフ4-gram言語モデルを混合する4-gram言語モデル混合部を追加して、言語モデル統合部60が1-gramから4-gramまでの混合バックオフn-gram言語モデルを統合して、混合バックオフn-gram言語モデルを生成するように構成すればよい。バックオフ5-gram言語モデルを混合する場合も同様に、言語モデル混合部を追加して、混合バックオフ5-gram言語モデルを言語モデル統合部60に入力すればよい。このようにして、低次のオーダから順番に混合を行うことで、オーダごとに最適な混合が可能となる。
[Application example]
In the above embodiment, the back-off 3-gram language model is mixed as an example, but the back-off 4-gram language model and the back-off 5-gram language model can also be mixed in the same framework. For example, when mixing back-off 4-gram language models, add a 4-gram language model mixing unit that mixes back-off 4-gram language models included in K back-off n-gram language models. The language model integration unit 60 may be configured to integrate the mixed back-off n-gram language models from 1-gram to 4-gram to generate a mixed back-off n-gram language model. Similarly, when mixing back-off 5-gram language models, a language model mixing unit may be added and the mixed back-off 5-gram language model may be input to the language model integration unit 60. In this way, optimal mixing is possible for each order by mixing in order from the lower order.

この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。   The present invention is not limited to the above-described embodiment, and it goes without saying that modifications can be made as appropriate without departing from the spirit of the present invention. The various processes described in the above embodiment may be executed not only in time series according to the order of description, but also in parallel or individually as required by the processing capability of the apparatus that executes the processes or as necessary.

[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
[Program, recording medium]
When various processing functions in each device described in the above embodiment are realized by a computer, the processing contents of the functions that each device should have are described by a program. Then, by executing this program on a computer, various processing functions in each of the above devices are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In this embodiment, the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

10 開発データ記憶部
20 バックオフn-gram言語モデル記憶部
30 言語モデル混合部
31 1-gram言語モデル混合部
32 2-gram言語モデル混合部
33 3-gram言語モデル混合部
41 混合1-gram言語モデル記憶部
42 混合2-gram言語モデル記憶部
43 混合3-gram言語モデル記憶部
50 言語モデル統合部
60 混合バックオフn-gram言語モデル記憶部
10 Development Data Storage Unit 20 Back-off n-gram Language Model Storage Unit 30 Language Model Mixing Unit 31 1-gram Language Model Mixing Unit 32 2-gram Language Model Mixing Unit 33 3-gram Language Model Mixing Unit 41 Mixed 1-gram Language Model storage unit 42 Mixed 2-gram language model storage unit 43 Mixed 3-gram language model storage unit 50 Language model integration unit 60 Mixed back-off n-gram language model storage unit

Claims (7)

開発データを記憶する開発データ記憶部と、
1-gram言語モデルと2-gram言語モデルと3-gram言語モデルとを含む複数のバックオフn-gram言語モデルを記憶するバックオフn-gram言語モデル記憶部と、
上記開発データと上記複数の1-gram言語モデルとを用いて混合1-gram言語モデルを生成する1-gram言語モデル混合部と、
上記開発データと上記複数の2-gram言語モデルと上記混合1-gram言語モデルとを用いて混合2-gram言語モデルを生成する2-gram言語モデル混合部と、
上記開発データと上記複数の3-gram言語モデルと上記混合1-gram言語モデルと上記混合2-gram言語モデルとを用いて混合3-gram言語モデルを生成する3-gram言語モデル混合部と、
上記混合1-gram言語モデルと上記混合2-gram言語モデルと上記混合3-gram言語モデルとを統合して混合バックオフn-gram言語モデルを生成する言語モデル統合部と、
を含む言語モデル作成装置。
A development data storage unit for storing development data;
A back-off n-gram language model storage unit for storing a plurality of back-off n-gram language models including a 1-gram language model, a 2-gram language model, and a 3-gram language model;
A 1-gram language model mixing unit that generates a mixed 1-gram language model using the development data and the plurality of 1-gram language models;
A 2-gram language model mixing unit that generates a mixed 2-gram language model using the development data, the plurality of 2-gram language models, and the mixed 1-gram language model;
A 3-gram language model mixing unit that generates a mixed 3-gram language model using the development data, the plurality of 3-gram language models, the mixed 1-gram language model, and the mixed 2-gram language model;
A language model integration unit that generates a mixed back-off n-gram language model by integrating the mixed 1-gram language model, the mixed 2-gram language model, and the mixed 3-gram language model;
Language model creation device including
請求項1に記載の言語モデル作成装置であって、
wiを上記開発データに含まれる単語とし、Pk(wi)を上記1-gram言語モデルの1-gram確率とし、λkを混合重みとし、0≦λk≦1であり、Σk=1 Kλk=1であり、
上記1-gram言語モデル混合部は、次式により1-gram混合の確率値Pmix(wi)を計算して上記混合1-gram言語モデルを生成するものであり、
Figure 0006211995

上記2-gram言語モデル混合部は、α(wi-1)はバックオフ係数とし、次式により2-gram混合の確率値Pmix(wi|wi-1)を計算して上記混合2-gram言語モデルを生成するものであり、
Figure 0006211995

上記3-gram言語モデル混合部は、α(wi-2,wi-1)をバックオフ係数とし、次式により3-gram混合の確率値Pmix(wi|wi-2,wi-1)を計算して上記混合3-gram言語モデルを生成するものである
Figure 0006211995

言語モデル作成装置。
The language model creation device according to claim 1,
w i is a word included in the development data, P k (w i ) is a 1-gram probability of the 1-gram language model, λ k is a mixture weight, 0 ≦ λ k ≦ 1, and Σ k = 1 K λ k = 1,
The 1-gram language model mixing unit generates a mixed 1-gram language model by calculating a probability value P mix (w i ) of 1-gram mixing according to the following equation:
Figure 0006211995

The 2-gram language model mixing unit, α (w i-1) is the back-off factor, 2-gram mixture of the probability values P mix the following equation | said mixture by calculating the (w i w i-1) A 2-gram language model,
Figure 0006211995

The 3-gram language model mixing unit uses α (w i-2 , w i-1 ) as a backoff coefficient, and the probability value P mix (w i | w i-2 , w i-1 ) is calculated to generate the above mixed 3-gram language model
Figure 0006211995

Language model creation device.
開発データを記憶する開発データ記憶部と、
Nを2以上の整数として、1-gramからN-gramまでのn-gram言語モデルを含む複数のバックオフn-gram言語モデルを記憶するバックオフn-gram言語モデル記憶部と、
nを2以上N以下の整数として、上記開発データと上記複数のn-gram言語モデルと混合(n-1)-gram言語モデルとを用いて混合n-gram言語モデルを生成するn-gram言語モデル混合部と、
1-gramからN-gramまでの上記混合n-gram言語モデルを統合して混合バックオフn-gram言語モデルを生成する言語モデル統合部と、
を含む言語モデル作成装置。
A development data storage unit for storing development data;
A back-off n-gram language model storage unit for storing a plurality of back-off n-gram language models including n-gram language models from 1-gram to N-gram, where N is an integer greater than or equal to 2,
An n-gram language that generates a mixed n-gram language model using the development data, multiple n-gram language models, and a mixed (n-1) -gram language model, where n is an integer of 2 to N A model mixing section;
A language model integration unit that generates a mixed back-off n-gram language model by integrating the mixed n-gram language model from 1-gram to N-gram;
Language model creation device including
開発データと複数のバックオフn-gram言語モデルに含まれる複数の1-gram言語モデルとを用いて混合1-gram言語モデルを生成する1-gram言語モデル混合ステップと、
上記開発データと上記複数のバックオフn-gram言語モデルに含まれる複数の2-gram言語モデルと上記混合1-gram言語モデルとを用いて混合2-gram言語モデルを生成する2-gram言語モデル混合ステップと、
上記開発データと上記複数のバックオフn-gram言語モデルに含まれる複数の3-gram言語モデルと上記混合1-gram言語モデルと上記混合2-gram言語モデルとを用いて混合3-gram言語モデルを生成する3-gram言語モデル混合ステップと、
上記混合1-gram言語モデルと上記混合2-gram言語モデルと上記混合3-gram言語モデルとを統合して混合バックオフn-gram言語モデルを生成する言語モデル統合ステップと、
を含む言語モデル作成方法。
1-gram language model mixing step for generating a mixed 1-gram language model using development data and a plurality of 1-gram language models included in a plurality of backoff n-gram language models;
A 2-gram language model that generates a mixed 2-gram language model using the development data, a plurality of 2-gram language models included in the plurality of back-off n-gram language models, and the mixed 1-gram language model A mixing step;
A mixed 3-gram language model using the development data, a plurality of 3-gram language models included in the plurality of back-off n-gram language models, the mixed 1-gram language model, and the mixed 2-gram language model 3-gram language model mixing step to generate
A language model integration step of integrating the mixed 1-gram language model, the mixed 2-gram language model, and the mixed 3-gram language model to generate a mixed back-off n-gram language model;
Language model creation method including
請求項4に記載の言語モデル作成方法であって、
wiを上記開発データに含まれる単語とし、Pk(wi)を上記1-gram言語モデルの1-gram確率とし、λkを混合重みとし、0≦λk≦1であり、Σk=1 Kλk=1であり、
上記1-gram言語モデル混合ステップは、次式により1-gram混合の確率値Pmix(wi)を計算して上記混合1-gram言語モデルを生成するものであり、
Figure 0006211995

上記2-gram言語モデル混合ステップは、α(wi-1)はバックオフ係数とし、次式により2-gram混合の確率値Pmix(wi|wi-1)を計算して上記混合2-gram言語モデルを生成するものであり、
Figure 0006211995

上記3-gram言語モデル混合ステップは、α(wi-2,wi-1)をバックオフ係数とし、次式により3-gram混合の確率値Pmix(wi|wi-2,wi-1)を計算して上記混合3-gram言語モデルを生成するものである
Figure 0006211995

言語モデル作成方法。
The language model creation method according to claim 4,
w i is a word included in the development data, P k (w i ) is a 1-gram probability of the 1-gram language model, λ k is a mixture weight, 0 ≦ λ k ≦ 1, and Σ k = 1 K λ k = 1,
In the 1-gram language model mixing step, the mixed 1-gram language model is generated by calculating the probability value P mix (w i ) of 1-gram mixing by the following equation:
Figure 0006211995

In the 2-gram language model mixing step, α (w i-1 ) is a back-off coefficient, and the probability value P mix (w i | w i-1 ) of 2-gram mixing is calculated by A 2-gram language model,
Figure 0006211995

In the 3-gram language model mixing step, α (w i-2 , w i-1 ) is used as a back-off coefficient, and the probability value P mix (w i | w i-2 , w i-1 ) is calculated to generate the above mixed 3-gram language model
Figure 0006211995

Language model creation method.
バックオフn-gram言語モデル記憶部に、Nを2以上の整数として、1-gramからN-gramまでのn-gram言語モデルを含む複数のバックオフn-gram言語モデルが記憶されており、
nを2以上N以下の整数として、開発データと上記複数のn-gram言語モデルと混合(n-1)-gram言語モデルとを用いて混合n-gram言語モデルを生成するn-gram言語モデル混合ステップと、
1-gramからN-gramまでの上記混合n-gram言語モデルを統合して混合バックオフn-gram言語モデルを生成する言語モデル統合ステップと、
を含む言語モデル作成方法。
The back-off n-gram language model storage unit stores a plurality of back-off n-gram language models including n-gram language models from 1-gram to N-gram, where N is an integer equal to or greater than 2.
An n-gram language model that generates a mixed n-gram language model using development data, the above-mentioned multiple n-gram language models, and the mixed (n-1) -gram language model, where n is an integer of 2 to N A mixing step;
A language model integration step of generating a mixed back-off n-gram language model by integrating the above-mentioned mixed n-gram language model from 1-gram to N-gram;
Language model creation method including
請求項1から3のいずれかに記載の言語モデル作成装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the language model creation device according to any one of claims 1 to 3.
JP2014117524A 2014-06-06 2014-06-06 Language model creation device, language model creation method and program Active JP6211995B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014117524A JP6211995B2 (en) 2014-06-06 2014-06-06 Language model creation device, language model creation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014117524A JP6211995B2 (en) 2014-06-06 2014-06-06 Language model creation device, language model creation method and program

Publications (2)

Publication Number Publication Date
JP2015230441A JP2015230441A (en) 2015-12-21
JP6211995B2 true JP6211995B2 (en) 2017-10-11

Family

ID=54887221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014117524A Active JP6211995B2 (en) 2014-06-06 2014-06-06 Language model creation device, language model creation method and program

Country Status (1)

Country Link
JP (1) JP6211995B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010078877A (en) * 2008-09-25 2010-04-08 Pioneer Electronic Corp Speech recognition device, speech recognition method, and speech recognition program
JP5790646B2 (en) * 2010-05-20 2015-10-07 日本電気株式会社 Perplexity calculation device

Also Published As

Publication number Publication date
JP2015230441A (en) 2015-12-21

Similar Documents

Publication Publication Date Title
CN108959246B (en) Answer selection method and device based on improved attention mechanism and electronic equipment
KR102382499B1 (en) Translation method, target information determination method, related apparatus and storage medium
US20190370659A1 (en) Optimizing neural network architectures
CN108292310B (en) Techniques for digital entity correlation
US20190130249A1 (en) Sequence-to-sequence prediction using a neural network model
WO2019154210A1 (en) Machine translation method and device, and computer-readable storage medium
JP7070653B2 (en) Learning devices, speech recognition ranking estimators, their methods, and programs
CN109614499B (en) Dictionary generation method, new word discovery method, device and electronic equipment
US20180018960A1 (en) Systems and methods for automatic repair of speech recognition engine output
JP6230987B2 (en) Language model creation device, language model creation method, program, and recording medium
CN113868368A (en) Method, electronic device and computer program product for information processing
JP5975938B2 (en) Speech recognition apparatus, speech recognition method and program
CN113626608B (en) Semantic-enhancement relationship extraction method and device, computer equipment and storage medium
JP7212596B2 (en) LEARNING DEVICE, LEARNING METHOD AND LEARNING PROGRAM
JP6261669B2 (en) Query calibration system and method
JP6211995B2 (en) Language model creation device, language model creation method and program
JP6633556B2 (en) Acoustic model learning device, speech recognition device, acoustic model learning method, speech recognition method, and program
US11341340B2 (en) Neural machine translation adaptation
CN112347242B (en) Digest generation method, device, equipment and medium
US11887620B2 (en) Language model score calculation apparatus, language model generation apparatus, methods therefor, program, and recording medium
Lee et al. Improved model adaptation approach for recognition of reduced-frame-rate continuous speech
WO2020054402A1 (en) Neural network processing device, computer program, neural network manufacturing method, neural network data manufacturing method, neural network use device, and neural network downscaling method
JP6588933B2 (en) Language model construction device, method and program
JP2017026808A (en) Voice recognition device, voice recognition method, and program
JP6662000B2 (en) Table meaning conversion device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170914

R150 Certificate of patent or registration of utility model

Ref document number: 6211995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150