JP6343582B2 - 言語モデル生成装置、方法及びプログラム - Google Patents
言語モデル生成装置、方法及びプログラム Download PDFInfo
- Publication number
- JP6343582B2 JP6343582B2 JP2015080212A JP2015080212A JP6343582B2 JP 6343582 B2 JP6343582 B2 JP 6343582B2 JP 2015080212 A JP2015080212 A JP 2015080212A JP 2015080212 A JP2015080212 A JP 2015080212A JP 6343582 B2 JP6343582 B2 JP 6343582B2
- Authority
- JP
- Japan
- Prior art keywords
- language model
- latent
- neural network
- learning
- recurrent neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Machine Translation (AREA)
Description
潜在語言語モデルにおける潜在変数の遷移確率モデルを通常のN-gram言語モデルではなく、リカレントニューラルネットワーク言語モデルでモデル化する。具体的には遷移確率モデルがN-gramモデルである通常の潜在語言語モデルを学習する際に、予測される潜在語系列を利用してリカレントニューラルネットワーク言語モデルを構築し、それを遷移確率モデルに採用する。このとき、出力確率モデルは元の潜在語言語モデルのものを利用する。なお、このように構築するモデルを潜在語リカレントニューラルネットワーク(Latent Words Recurrent Neural Network)言語モデルと呼ぶことにする。
潜在語リカレントニューラルネットワーク言語モデルを構築するための言語モデル生成装置及び方法の実施形態の例について述べる。
入力:単語区切りがわかるテキストデータ
出力:潜在語言語モデルについての情報、学習データの潜在語系列
潜在語言語モデル学習部1は、単語区切りがわかるテキストデータを学習データとして、潜在語言語モデルを学習する(ステップS1)。具体的な学習方法については、例えば非特許文献2に記載された既存の潜在語言語モデルの学習方法を用いればよい。
入力:学習データの潜在語系列
出力:潜在語についてのリカレントニューラルネットワーク
リカレントニューラルネットワーク学習部2は、潜在語言語モデル学習部1の出力として得られた、学習データの潜在語系列からリカレントニューラルネットワークを学習する(ステップS2)。通常は、観測単語系列から学習するリカレントニューラルネットワークをここでは、学習データの潜在語系列から学習することになる。学習方法自体は、観測単語系列を扱う場合とは変わらない。すなわち、例えば非特許文献4に記載されている、観測単語系列からリカレントニューラルネットワークを学習する方法を、観測単語系列に代えて学習データの潜在語系列に対して適用することにより、リカレントニューラルネットワークを学習することができる。
入力:潜在語言語モデル、潜在語についてのリカレントニューラルネットワーク
出力:潜在語リカレントニューラルネットワーク言語モデル
潜在語リカレントニューラルネットワーク言語モデル構成部3は、潜在語言語モデルと、潜在語についてのリカレントニューラルネットワークとから潜在語リカレントニューラルネットワーク言語モデルを構成する(ステップS3)。具体的には、潜在語言語モデルにおけるP(wi|hi,θLWLM)のパラメータと、潜在語についてのリカレントニューラルネットワークにおけるP(hi|hi-1,si-1,θLWRNNLM)のパラメータとを取り出し、取り出したパラメータをペアとした確率モデルを構成する。Jは、hi(i=1,2,…,L)の取り得る値の集合である。
潜在語リカレントニューラルネットワーク言語モデルに基づいて、N-gram言語モデルに近似により生成してもよい。これにより、音声認識や機械翻訳で利用しやすいモデルの形にすることができる。N-gram言語モデルの形は、音声認識や機械翻訳で高速に動作させる形態が整っており、実用に優れる。
入力:潜在語リカレントニューラルネットワーク言語モデル
出力:疑似学習テキスト
疑似学習テキスト生成部4は、潜在語リカレントニューラルネットワーク言語モデル構成部3が構築した潜在語リカレントニューラルネットワーク言語モデルから疑似学習テキストを生成する。ここでは、疑似学習テキスト「w1・w2・…・wM」というM個の単語を生成することを目的とする。基本的に、最初に潜在語系列「h1・h2・…・hM」を最初に生成し、そこから疑似学習テキストを生成することとなる。潜在語系列の生成には、P(hi|hi-1,si-1,θLWRNNLM)のパラメータを利用する。潜在語からの単語を生成する際は、P(wi|hi,θLWLM)のパラメータを利用する。
入力:確率分布(多項分布)
出力:確率分布の実現値
SampleOneアルゴリズムは、確率分布からランダムに1個の値を決定するためのアルゴリズムである。具体的に説明するために、前述の例であるP(h1)が入力である場合を扱う。
rand-P(h1=t1)>0
rand-P(h1=t1)-P(h1=t2)<0
であれば、t2を出力する。SampleOneアルゴリズムは、任意の多項分布からのデータサンプルアルゴリズムと言える。
入力:疑似学習テキスト
出力:潜在語リカレントニューラルネットワーク的N-gram言語モデル
N-gram言語モデル生成部5は、学習テキスト中の全てのN個組みの単語の組み合わせの頻度を数え、N-gram言語モデルとし、潜在語リカレントニューラルネットワーク的N-gram言語モデルを構成する。
言語モデル生成装置及び方法において説明した処理は、記載の順にしたがって時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
2 リカレントニューラルネットワーク学習部
3 潜在語リカレントニューラルネットワーク言語モデル構成部
4 疑似学習テキスト生成部
5 言語モデル生成部
Claims (4)
- w1,w2,…,wLをテキストデータを構成する各単語とし、h1,h2,…,hLをそれぞれw1,w2,…,wLの潜在語とし、θLWLMを潜在語言語モデルのモデルパラメータとし、Nを所定の正の整数として、上記テキストデータを用いて潜在語言語モデル学習を行い、h1,h2,…,hLと、確率分布P(hi|hi-N+1,…,hi-1,θLWLM)と、確率分布P(wi|hi,θLWLM)とを生成する潜在語言語モデル学習部と、
si-1をhiの直前のネットワーク中の中間層の出力とし、θLWRNNLMをリカレントニューラルネットワークのモデルパラメータとして、h1,h2,…,hLを用いてリカレントニューラルネットワーク学習を行い、確率分布P(hi|hi-1,si-1,θLWRNNLM)を生成するリカレントニューラルネットワーク学習部と、
確率分布P(wi|hi,θLWLM)と確率分布P(hi|hi-1,si-1,θLWRNNLM)との乗算を用いて任意の単語列が出現する確率を計算するための言語モデルを構成する潜在語リカレントニューラルネットワーク言語モデル構成部と、
を含む言語モデル生成装置。 - 請求項1の言語モデル生成装置において、
上記構成された言語モデルに基づいて、疑似学習テキストを生成する疑似学習テキスト生成部と、
上記疑似学習テキストに基づいて、N-gram言語モデルを生成するN-gram言語モデル生成部と、
を更に含む言語モデル生成装置。 - 潜在語言語モデル学習部が、w1,w2,…,wLをテキストデータを構成する各単語とし、h1,h2,…,hLをそれぞれw1,w2,…,wLの潜在語とし、θLWLMを潜在語言語モデルのモデルパラメータとし、Nを所定の正の整数として、上記テキストデータを用いて潜在語言語モデル学習を行い、h1,h2,…,hLと、確率分布P(hi|hi-N+1,…,hi-1,θLWLM)と、確率分布P(wi|hi,θLWLM)とを生成する潜在語言語モデル学習ステップと、
リカレントニューラルネットワーク学習部が、si-1をhiの直前のネットワーク中の中間層の出力とし、θLWRNNLMをリカレントニューラルネットワークのモデルパラメータとして、h1,h2,…,hLを用いてリカレントニューラルネットワーク学習を行い、確率分布P(hi|hi-1,si-1,θLWRNNLM)を生成するリカレントニューラルネットワーク学習ステップと、
潜在語リカレントニューラルネットワーク言語モデル構成部が、確率分布P(wi|hi,θLWLM)と確率分布P(hi|hi-1,si-1,θLWRNNLM)との乗算を用いて任意の単語列が出現する確率を計算するための言語モデルを構成する潜在語リカレントニューラルネットワーク言語モデル構成ステップと、
を含む言語モデル生成方法。 - 請求項1又は2の言語モデル生成装置の各部としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015080212A JP6343582B2 (ja) | 2015-04-09 | 2015-04-09 | 言語モデル生成装置、方法及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015080212A JP6343582B2 (ja) | 2015-04-09 | 2015-04-09 | 言語モデル生成装置、方法及びプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2016200953A JP2016200953A (ja) | 2016-12-01 |
| JP6343582B2 true JP6343582B2 (ja) | 2018-06-13 |
Family
ID=57424749
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015080212A Expired - Fee Related JP6343582B2 (ja) | 2015-04-09 | 2015-04-09 | 言語モデル生成装置、方法及びプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6343582B2 (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6957967B2 (ja) * | 2017-05-16 | 2021-11-02 | 富士通株式会社 | 生成プログラム、生成方法、生成装置、及びパラメータ生成方法 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5860424B2 (ja) * | 2013-02-20 | 2016-02-16 | 日本電信電話株式会社 | 言語モデル作成装置とその方法とプログラム |
| JP5975938B2 (ja) * | 2013-06-18 | 2016-08-23 | 日本電信電話株式会社 | 音声認識装置、音声認識方法及びプログラム |
| JP5860439B2 (ja) * | 2013-08-01 | 2016-02-16 | 日本電信電話株式会社 | 言語モデル作成装置とその方法、そのプログラムと記録媒体 |
-
2015
- 2015-04-09 JP JP2015080212A patent/JP6343582B2/ja not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2016200953A (ja) | 2016-12-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108346428B (zh) | 语音活动检测及其模型建立方法、装置、设备及存储介质 | |
| WO2019174423A1 (zh) | 实体情感分析方法及相关装置 | |
| Beaurepaire et al. | Reliability-based optimization using bridge importance sampling | |
| CN115335830A (zh) | 利用权重共享的神经架构搜索 | |
| JP6611053B2 (ja) | 主題推定システム、主題推定方法およびプログラム | |
| JP2019511033A5 (ja) | ||
| CN104536983A (zh) | 一种预测广告点击率的方法和装置 | |
| CN104616031A (zh) | 迁移学习方法及装置 | |
| CN113826125A (zh) | 使用无监督数据增强来训练机器学习模型 | |
| CN110362814B (zh) | 一种基于改进损失函数的命名实体识别方法及装置 | |
| CN110663049A (zh) | 神经网络优化器搜索 | |
| CN104704514A (zh) | 建模数据生成过程 | |
| CN112949818A (zh) | 模型蒸馏方法、装置、设备以及存储介质 | |
| WO2018229877A1 (ja) | 仮説推論装置、仮説推論方法、及びコンピュータ読み取り可能な記録媒体 | |
| JP2016194914A (ja) | 混合モデル選択の方法及び装置 | |
| Lee et al. | NAS-TasNet: Neural architecture search for time-domain speech separation | |
| CN114372139A (zh) | 数据处理方法、摘要展示方法、装置、设备及存储介质 | |
| KR102131641B1 (ko) | 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법, 이를 수행하기 위한 기록매체 및 장치 | |
| CN116340574A (zh) | 用于管理知识图谱的方法、设备和程序产品 | |
| Akazaki et al. | Causality-aided falsification | |
| JP6343582B2 (ja) | 言語モデル生成装置、方法及びプログラム | |
| EP3044699A1 (en) | Information extraction | |
| JP6320966B2 (ja) | 言語モデル生成装置、方法及びプログラム | |
| JP2017538226A (ja) | スケーラブルなウェブデータの抽出 | |
| CN116756536B (zh) | 数据识别方法、模型训练方法、装置、设备及存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170621 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180416 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180515 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180521 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6343582 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |
