JP7143677B2 - 単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム - Google Patents
単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム Download PDFInfo
- Publication number
- JP7143677B2 JP7143677B2 JP2018157473A JP2018157473A JP7143677B2 JP 7143677 B2 JP7143677 B2 JP 7143677B2 JP 2018157473 A JP2018157473 A JP 2018157473A JP 2018157473 A JP2018157473 A JP 2018157473A JP 7143677 B2 JP7143677 B2 JP 7143677B2
- Authority
- JP
- Japan
- Prior art keywords
- vector
- word
- character
- representing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Description
本発明の実施の形態では、非特許文献1に記載の技術である文字の埋め込みベクトルを利用した手法とは異なり、単語を構成する文字Nグラムの埋め込みベクトルに対し、文字Nグラムの埋め込みベクトルの各次元に重みを付与する。
<本発明の第1の実施の形態に係る単語符号化装置の構成>
本発明の第1の実施の形態に係る単語符号化装置の構成について説明する。図1は、本発明の実施の形態に係る単語符号化装置の構成を示す概略図である。
図4は、本発明の第1の実施の形態に係る単語符号化処理ルーチンを示すフローチャートである。
・上記のような複合語に加え、接頭辞や接尾辞を考慮可能である。
次に、本発明を、言語モデル学習装置及び解析装置に適用した第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
本発明の第2の実施の形態に係る言語モデル学習装置の構成について説明する。図5は、本発明の第2の実施の形態に係る言語モデル学習装置の構成を示す概略図である。
本発明の第2の実施の形態に係る解析装置の構成について説明する。図8は、本発明の第2の実施の形態に係る解析装置の構成を示す概略図である。
図9は、本発明の第2の実施の形態に係る言語モデル学習処理ルーチンを示すフローチャートである。
図10は、本発明の第2の実施の形態に係る解析装置250による解析処理ルーチンを示すフローチャートである。
上記第2の実施の形態で説明した手法の有効性を確認するために実験を行った。実験結果について以下に説明する。
単語単位の言語モデルについて実験を行う。具体的には訓練データで、各種パラメータを学習し、テストデータに自然言語らしいと正しく確率を付与できるか検証する。評価指標であるPerplexityは、ネイピア数について、各単語の負の対数尤度でべき乗したものであり、低い程よい。
標準的なベンチマークデータセットとして、単語レベルの言語モデリングのためのPenn Treebank(PTB)を使用した。文字Nグラムについては、N=3を用いた。
比較例として、非特許文献1の手法(Character-Word LSTM)を用い、ベースライン手法として非特許文献2(AWD-LSTM)の手法を用いる。
非特許文献2(AWD-LSTM)の手法は、単語単位の埋め込みベクトル用いた3層のLSTMによる言語モデルである。非特許文献1の手法(Character-Word LSTM)は、単語を構成する文字の埋め込みベクトルを用いた言語モデルである。
各手法の実験結果を表1に示す。上記第2の実施の形態で説明した提案手法(Proposed method: AWD-LSTM + char3-MS-vecを参照)では、文字Nグラムの重みづけを行うことで、ベースラインから性能が向上し、さらに、非特許文献1の手法(Character-Word LSTM)より高い性能を達成した。
12、212、252 入力部
14、214、254 演算部
16、216、256 出力部
20 パラメータ記憶部
22 単語符号化部
30 文字Nグラムベクトル取得部
32 文字Nグラム符号化部
34 単語ベクトル取得部
36 単語ベクトル合成部
40 重み計算部
42 文字Nグラムベクトル合成部
210 言語モデル学習装置
220、260 パラメータ記憶部
222 分割部
224、270 解析部
226 パラメータ学習部
230 単語符号化部
232 系列符号化部
234 系列復号化部
250 解析装置
280 確率集約部
Claims (7)
- 予め学習されたニューラルネットワークを用いて、入力された単語を合成ベクトルに変換する単語符号化部を有する単語符号化装置であって、
前記単語符号化部は、
前記単語に含まれる文字Nグラムの各々を表す所定のベクトルを取得する文字Nグラムベクトル取得部と、
前記単語に含まれる文字Nグラムの各々を表す所定のベクトルに基づいて、前記文字Nグラムの各々を表す所定のベクトルに対する重みベクトルを計算する重み計算部と、
前記単語に含まれる文字Nグラムの各々を表す所定のベクトル及び前記文字Nグラムの各々を表す所定のベクトルに対する重みベクトルに基づいて、前記文字Nグラムの各々を表す所定のベクトルを合成した合成ベクトルを生成する文字Nグラムベクトル合成部と、
を含み、
前記重み計算部は、i番目の文字Nグラムを表す所定のベクトルs i に対する重みベクトルg i を、以下の式に従って計算し、
前記文字Nグラムベクトル合成部は、以下の式に従って、合成ベクトルc t を生成する単語符号化装置。
ただし、
は、予め学習された重み行列であり、Sは、前記単語に含まれる文字Nグラムの各々を表す所定のベクトルの系列であり、D e は、前記所定のベクトルの次元数を表す。また、[ ] j は、行列のj番目の列を取り出す操作を表し、{ } j は、ベクトルのj番目の要素を取り出す操作を表す。
は、ベクトルの要素積を表す。 - 予め学習されたニューラルネットワークを用いて、入力されたテキストに対して、所定の目的に応じた出力テキストの予測結果を出力する解析部を有する解析装置であって、
前記解析部は、
入力されたテキストに含まれる各単語を、合成単語ベクトル又は合成ベクトルに変換する単語符号化部と、
前記入力されたテキストの先頭の単語から順に、t-1番目の単語について計算された隠れベクトルと、前記単語符号化部からt番目の単語について出力された合成単語ベクトル又は合成ベクトルとを用いて、t番目の単語についての隠れベクトルを計算する系列符号化部と、
前記入力されたテキストに含まれる各単語について計算された前記隠れベクトルから、前記出力テキストの予測結果を生成する系列復号化部と、
を含み、
前記単語符号化部は、
前記入力されたテキストに含まれる各単語について、前記単語に含まれる文字Nグラムの各々を表すベクトルを取得する文字Nグラムベクトル取得部と、
前記単語に含まれる文字Nグラムの各々を表す所定のベクトルに基づいて、前記文字Nグラムの各々を表す所定のベクトルに対する重みベクトルを計算する重み計算部と、
前記単語に含まれる文字Nグラムの各々を表す所定のベクトル及び前記文字Nグラムの各々を表す所定のベクトルに対する重みベクトルに基づいて、前記文字Nグラムの各々を表す所定のベクトルを合成した合成ベクトルを生成する文字Nグラムベクトル合成部と、
前記単語を表すベクトルを取得する単語ベクトル取得部と、
前記単語を表すベクトルと、前記文字Nグラムベクトル合成部によって生成された前記合成ベクトルとを合成した合成単語ベクトルを生成する単語ベクトル合成部と、
を含み、
前記重み計算部は、i番目の文字Nグラムを表す所定のベクトルs i に対する重みベクトルg i を、以下の式に従って計算し、
前記文字Nグラムベクトル合成部は、以下の式に従って、合成ベクトルc t を生成する
解析装置。
ただし、
は、予め学習された重み行列であり、Sは、前記単語に含まれる文字Nグラムの各々を表す所定のベクトルの系列であり、D e は、前記所定のベクトルの次元数を表す。また、[ ] j は、行列のj番目の列を取り出す操作を表し、{ } j は、ベクトルのj番目の要素を取り出す操作を表す。
は、ベクトルの要素積を表す。
- 請求項2記載の解析装置と、
学習用テキストについての、前記解析装置による前記出力テキストの予測結果と、前記学習用テキストに対する前記出力テキストの正解とに基づいて、前記文字Nグラムを表す所定のベクトル、前記重みを計算する際に用いられるパラメータ、前記単語を表すベクトル、前記系列符号化部、及び前記系列復号化部の各々のパラメータを学習するパラメータ学習部と、
を含む言語モデル学習装置。 - 単語符号化部が、予め学習されたニューラルネットワークを用いて、入力された単語を合成ベクトルに変換する単語符号化方法であって、
前記単語符号化部が変換することでは、
文字Nグラムベクトル取得部が、単語に含まれる文字Nグラムの各々を表す所定のベクトルを取得し、
重み計算部が、前記単語に含まれる文字Nグラムの各々を表す所定のベクトルに基づいて、前記文字Nグラムの各々を表すベクトルに対する重みを計算し、
文字Nグラムベクトル合成部が、前記単語に含まれる文字Nグラムの各々を表す所定のベクトル及び前記文字Nグラムの各々を表す所定のベクトルに対する重みに基づいて、前記文字Nグラムの各々を表す所定のベクトルを合成した合成ベクトルを生成し、
前記重み計算部が計算することでは、i番目の文字Nグラムを表す所定のベクトルs i に対する重みベクトルg i を、以下の式に従って計算し、
前記文字Nグラムベクトル合成部が生成することでは、以下の式に従って、合成ベクトルc t を生成する単語符号化方法。
ただし、
は、予め学習された重み行列であり、Sは、前記単語に含まれる文字Nグラムの各々を表す所定のベクトルの系列であり、D e は、前記所定のベクトルの次元数を表す。また、[ ] j は、行列のj番目の列を取り出す操作を表し、{ } j は、ベクトルのj番目の要素を取り出す操作を表す。
は、ベクトルの要素積を表す。 - コンピュータを、請求項1に記載の単語符号化装置の各部として機能させるためのプログラム。
- コンピュータを、請求項2に記載の解析装置の各部として機能させるためのプログラム。
- コンピュータを、請求項3に記載の言語モデル学習装置の各部として機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157473A JP7143677B2 (ja) | 2018-08-24 | 2018-08-24 | 単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム |
US17/269,665 US12131120B2 (en) | 2018-08-24 | 2019-08-22 | Word coding device, analysis device, language model learning device, method, and program |
PCT/JP2019/032854 WO2020040255A1 (ja) | 2018-08-24 | 2019-08-22 | 単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157473A JP7143677B2 (ja) | 2018-08-24 | 2018-08-24 | 単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020030753A JP2020030753A (ja) | 2020-02-27 |
JP7143677B2 true JP7143677B2 (ja) | 2022-09-29 |
Family
ID=69591936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018157473A Active JP7143677B2 (ja) | 2018-08-24 | 2018-08-24 | 単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US12131120B2 (ja) |
JP (1) | JP7143677B2 (ja) |
WO (1) | WO2020040255A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111737996B (zh) | 2020-05-29 | 2024-03-26 | 北京百度网讯科技有限公司 | 基于语言模型获取词向量的方法、装置、设备及存储介质 |
JP7178390B2 (ja) * | 2020-07-31 | 2022-11-25 | 株式会社朝日新聞社 | 情報処理装置、情報処理方法、及びプログラム |
US11701546B1 (en) * | 2022-01-17 | 2023-07-18 | Tonal Systems, Inc. | Exercise machine struggle detection |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018081089A1 (en) | 2016-10-26 | 2018-05-03 | Deepmind Technologies Limited | Processing text sequences using neural networks |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11080591B2 (en) | 2016-09-06 | 2021-08-03 | Deepmind Technologies Limited | Processing sequences using convolutional neural networks |
US10049103B2 (en) | 2017-01-17 | 2018-08-14 | Xerox Corporation | Author personality trait recognition from short texts with a deep compositional learning approach |
US11003861B2 (en) | 2019-02-13 | 2021-05-11 | Sap Se | Contextualized text description |
WO2020235023A1 (ja) | 2019-05-21 | 2020-11-26 | 日本電信電話株式会社 | 情報処理装置、情報学習装置、情報処理方法、情報学習方法及びプログラム |
-
2018
- 2018-08-24 JP JP2018157473A patent/JP7143677B2/ja active Active
-
2019
- 2019-08-22 WO PCT/JP2019/032854 patent/WO2020040255A1/ja active Application Filing
- 2019-08-22 US US17/269,665 patent/US12131120B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018081089A1 (en) | 2016-10-26 | 2018-05-03 | Deepmind Technologies Limited | Processing text sequences using neural networks |
Non-Patent Citations (1)
Title |
---|
進藤 裕之、松本 裕治,畳み込みニューラルネットワークを用いた複単語表現の解析,情報処理学会 研究報告 自然言語処理(NL) 2015-NL-223 [online] ,日本,情報処理学会,2015年09月20日,pp.1-7 |
Also Published As
Publication number | Publication date |
---|---|
WO2020040255A1 (ja) | 2020-02-27 |
US20210342529A1 (en) | 2021-11-04 |
US12131120B2 (en) | 2024-10-29 |
JP2020030753A (ja) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109145315B (zh) | 文本翻译方法、装置、存储介质和计算机设备 | |
CN111145718B (zh) | 一种基于自注意力机制的中文普通话字音转换方法 | |
KR102260646B1 (ko) | 자연어 처리 시스템 및 자연어 처리에서의 단어 표현 방법 | |
JP6222821B2 (ja) | 誤り修正モデル学習装置、及びプログラム | |
CN108460028B (zh) | 将句子权重融入神经机器翻译的领域适应方法 | |
JP7143677B2 (ja) | 単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム | |
CN111354333B (zh) | 一种基于自注意力的汉语韵律层级预测方法及系统 | |
JP7072178B2 (ja) | 自然言語処理のための装置、方法及びプログラム | |
CN111401084A (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
JP7061594B2 (ja) | 文章変換システム、文章変換方法、及びプログラム | |
JP2019091172A (ja) | 句構造学習装置、句構造解析装置、方法、及びプログラム | |
JP5441937B2 (ja) | 言語モデル学習装置、言語モデル学習方法、言語解析装置、及びプログラム | |
WO2019163752A1 (ja) | 形態素解析学習装置、形態素解析装置、方法、及びプログラム | |
JP5914054B2 (ja) | 言語モデル作成装置、音声認識装置、およびそのプログラム | |
JP2018180720A (ja) | 入出力システム、入出力プログラム、情報処理装置、チャットシステム | |
KR101417757B1 (ko) | 하이퍼그래프 언어모델 학습 및 적용 장치 및 그 학습 및 적용 방법, 및 하이퍼그래프 언어모델 갱신장치 및 그 갱신방법 | |
WO2020235024A1 (ja) | 情報学習装置、情報処理装置、情報学習方法、情報処理方法及びプログラム | |
CN110399619A (zh) | 面向神经机器翻译的位置编码方法及计算机存储介质 | |
JP6558856B2 (ja) | 形態素解析装置、モデル学習装置、及びプログラム | |
JP5295037B2 (ja) | ConditionalRandomFieldsもしくはGlobalConditionalLog−linearModelsを用いる学習装置及びその学習装置におけるパラメータ学習方法、プログラム | |
JP2018181300A (ja) | 入出力システム、入出力プログラム、情報処理装置、チャットシステム | |
CN108073704B (zh) | 一种liwc词表扩展方法 | |
JPH10149192A (ja) | パターン認識方法、装置およびその記憶媒体 | |
CN116978354B (zh) | 韵律预测模型的训练方法及装置、语音合成方法及装置 | |
JP6482084B2 (ja) | 文法規則フィルターモデル学習装置、文法規則フィルター装置、構文解析装置、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220829 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7143677 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |