JP7072178B2 - 自然言語処理のための装置、方法及びプログラム - Google Patents
自然言語処理のための装置、方法及びプログラム Download PDFInfo
- Publication number
- JP7072178B2 JP7072178B2 JP2020502783A JP2020502783A JP7072178B2 JP 7072178 B2 JP7072178 B2 JP 7072178B2 JP 2020502783 A JP2020502783 A JP 2020502783A JP 2020502783 A JP2020502783 A JP 2020502783A JP 7072178 B2 JP7072178 B2 JP 7072178B2
- Authority
- JP
- Japan
- Prior art keywords
- text
- natural language
- neural network
- output
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Description
<文生成装置100>
まず、図4~7を参照して、本開示の一実施例による文生成装置を説明する。
[文生成処理]
次に、図8~9を参照して、本開示の一実施例による学習済みニューラルネットワークを利用した文生成処理を説明する。
また、j番目の処理単位の予測出力テキスト^yjを生成する元となる、入力テキストの処理単位を表すxjに対応するテキスト^xjは、以下の式により求まる。
<学習装置130>
上述の文生成処理では、ニューラルネットワークの各パラメタには、予め学習済みの値が設定されているものとした。以下では、ニューラルネットワークの各パラメタの値を学習するための学習装置130について詳細に説明する。
[パラメタ学習処理]
次に、図11を参照して、本開示の一実施例による学習済みニューラルネットワークを利用したパラメタ学習処理を説明する。
110 入力部
120 解析部
130 学習装置
Claims (9)
- 第1の自然言語文が入力され、第1の自然言語文に対応する所定の目的に応じた第2の自然言語文と、前記第2の自然言語文の各部分が前記第1の自然言語文のいずれの部分の情報に基づき生成されたかを示す対応情報とを出力するよう学習された学習済みニューラルネットワークと、
入力されたテキストを、前記学習済みのニューラルネットワークに入力することで、所定の目的に応じた出力テキストの予測結果と、前記出力テキストの予測結果の各部分が前記入力テキストの何れの部分の情報に基づき生成されたかを示す対応情報とを出力する解析部と、
を有する装置。 - 前記学習済みニューラルネットワークは、
入力されたテキストを中間状態に変換する符号化部と、
前記符号化部から出力された中間状態を入力として、前記出力テキストの先頭の処理単位から順に、処理単位毎の前記出力テキストの予測結果を生成する復号化部と、
を有し、
前記復号化部は、j-1番目の処理単位の出力テキストの予測結果を変換して得られる隠れ状態と、前記符号化部から出力された中間状態とを用いて、j番目の処理単位の予測結果と、当該j番目の処理単位の予測結果の生成に用いた入力テキスト中の処理単位を特定する情報とを出力する層を含む、
請求項1記載の装置。 - 第1の自然言語文が入力され、第1の自然言語文に対応する所定の目的に応じた第2の自然言語文と、前記第2の自然言語文の各部分が前記第1の自然言語文のいずれの部分の情報に基づき生成されたかを示す対応情報とを出力するニューラルネットワークと、
予め与えられた学習用入力テキストと学習用出力テキストの正解との対からなる学習データの各々について、各学習用入力テキストを前記ニューラルネットワークに入力することで、学習用出力テキストの予測結果と対応情報とを出力する解析部と、
前記解析部で得られた学習用出力テキストの予測結果と前記対応情報とに基づいて計算される損失関数の値に応じて、前記ニューラルネットワークの各パラメタを更新するパラメタ更新部と、
を有する装置。 - 前記損失関数は、前記学習用出力テキストの予測結果の生成に用いた第1の自然言語の各語彙の出現頻度である第1の出現頻度と、前記学習用入力テキスト中の前記第1の自然言語の各語彙の出現頻度である第2の出現頻度との類似度が高い場合のほうが、低い場合よりも損失関数の値が小さくなるように計算されることを特徴とする、請求項3記載の装置。
- 前記ニューラルネットワークは、
学習用入力テキストを中間状態に変換する符号化部と、
前記符号化部から出力された中間状態を入力として、前記学習用出力テキストの予測結果の先頭の処理単位から順に、処理単位毎の前記学習用出力テキストの予測結果を生成する復号化部と、
を有し、
前記復号化部は、j-1番目の処理単位の出力テキストの予測結果を変換して得られる隠れ状態と、前記符号化部から出力された中間状態とを用いて、j番目の処理単位の予測結果と、当該j番目の処理単位の予測結果の生成に用いた入力テキスト中の処理単位を特定する情報とを出力する層を含む、
請求項3又は4記載の装置。 - 入力テキストを学習済みのニューラルネットワークに入力するステップと、
所定の目的に応じた出力テキストの予測結果と、前記出力テキストの予測結果の各部分が前記入力テキストの何れの部分の情報に基づき生成されたかを示す対応情報とを出力するステップと、
を有し、
前記学習済みのニューラルネットワークは、第1の自然言語文が入力され、第1の自然言語文に対応する所定の目的に応じた第2の自然言語文と、前記第2の自然言語文の各部分が前記第1の自然言語文のいずれの部分の情報に基づき生成されたかを示す対応情報とを出力するよう学習された方法。 - 予め与えられた学習用入力テキストと学習用出力テキストの正解との対からなる学習データの各々について、各学習用入力テキストをニューラルネットワークに入力するステップと、
学習用出力テキストの予測結果と対応情報とを出力するステップと、
前記学習用出力テキストの予測結果と前記対応情報とに基づいて計算される損失関数の値に応じて、前記ニューラルネットワークの各パラメタを更新するステップと、
を有し、
前記ニューラルネットワークは、第1の自然言語文が入力され、第1の自然言語文に対応する所定の目的に応じた第2の自然言語文と、前記第2の自然言語文の各部分が前記第1の自然言語文のいずれの部分の情報に基づき生成されたかを示す対応情報とを出力する方法。 - 請求項1又は2記載の装置の各部としてプロセッサを機能させるプログラム。
- 請求項3乃至5何れか一項記載の装置の各部としてプロセッサを機能させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018034781 | 2018-02-28 | ||
JP2018034781 | 2018-02-28 | ||
PCT/JP2018/023961 WO2019167296A1 (ja) | 2018-02-28 | 2018-06-25 | 自然言語処理のための装置、方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019167296A1 JPWO2019167296A1 (ja) | 2021-06-17 |
JP7072178B2 true JP7072178B2 (ja) | 2022-05-20 |
Family
ID=67804849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020502783A Active JP7072178B2 (ja) | 2018-02-28 | 2018-06-25 | 自然言語処理のための装置、方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (2) | US11797761B2 (ja) |
JP (1) | JP7072178B2 (ja) |
WO (1) | WO2019167296A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110162799B (zh) * | 2018-11-28 | 2023-08-04 | 腾讯科技(深圳)有限公司 | 模型训练方法、机器翻译方法以及相关装置和设备 |
US11501159B2 (en) * | 2019-03-26 | 2022-11-15 | Alibaba Group Holding Limited | Methods and systems for text sequence style transfer by two encoder decoders |
CN110765243A (zh) * | 2019-09-17 | 2020-02-07 | 平安科技(深圳)有限公司 | 自然语言处理系统的构建方法、电子装置及计算机设备 |
WO2021064907A1 (ja) * | 2019-10-02 | 2021-04-08 | 日本電信電話株式会社 | 文生成装置、文生成学習装置、文生成方法、文生成学習方法及びプログラム |
US20230072015A1 (en) | 2020-02-20 | 2023-03-09 | Nippon Telegraph And Telephone Corporation | Sequence conversion apparatus, machine learning apparatus, sequence conversion method, machine learning method, and program |
JP7178390B2 (ja) * | 2020-07-31 | 2022-11-25 | 株式会社朝日新聞社 | 情報処理装置、情報処理方法、及びプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015170168A (ja) | 2014-03-07 | 2015-09-28 | 国立研究開発法人情報通信研究機構 | 単語アライメントスコア算出装置、単語アライメント装置、及びコンピュータプログラム |
JP2017182277A (ja) | 2016-03-29 | 2017-10-05 | 日本電信電話株式会社 | 符号化装置、復号化装置、離散系列変換装置、方法、及びプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016065327A1 (en) * | 2014-10-24 | 2016-04-28 | Google Inc. | Neural machine translation systems with rare word processing |
-
2018
- 2018-06-25 US US16/975,312 patent/US11797761B2/en active Active
- 2018-06-25 JP JP2020502783A patent/JP7072178B2/ja active Active
- 2018-06-25 WO PCT/JP2018/023961 patent/WO2019167296A1/ja active Application Filing
-
2023
- 2023-09-14 US US18/368,223 patent/US20240005093A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015170168A (ja) | 2014-03-07 | 2015-09-28 | 国立研究開発法人情報通信研究機構 | 単語アライメントスコア算出装置、単語アライメント装置、及びコンピュータプログラム |
JP2017182277A (ja) | 2016-03-29 | 2017-10-05 | 日本電信電話株式会社 | 符号化装置、復号化装置、離散系列変換装置、方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
後藤功雄 他1名,ニューラル機械翻訳での訳抜けした内容の検出,言語処理学会第23回年次大会 発表論文集 [online],日本,言語処理学会事務局,2017年03月06日,1018-1021頁 |
Also Published As
Publication number | Publication date |
---|---|
US20210406483A1 (en) | 2021-12-30 |
WO2019167296A1 (ja) | 2019-09-06 |
JPWO2019167296A1 (ja) | 2021-06-17 |
US11797761B2 (en) | 2023-10-24 |
US20240005093A1 (en) | 2024-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7072178B2 (ja) | 自然言語処理のための装置、方法及びプログラム | |
CN109523989B (zh) | 语音合成方法、语音合成装置、存储介质及电子设备 | |
CN111837178A (zh) | 语音处理系统和处理语音信号的方法 | |
CN113707125B (zh) | 一种多语言语音合成模型的训练方法及装置 | |
Wu et al. | Self-supervised representations improve end-to-end speech translation | |
CN114038447A (zh) | 语音合成模型的训练方法、语音合成方法、装置及介质 | |
Kurimo et al. | Modeling under-resourced languages for speech recognition | |
WO2020233953A1 (en) | A method of sequence to sequence data processing and a system for sequence to sequence data processing | |
JP2015187684A (ja) | N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム | |
JP2022549893A (ja) | 過去の入力に選択的に注意を向けるための注意ベースのニューラルネットワークの拡張 | |
Gabdrakhmanov et al. | Ruslan: Russian spoken language corpus for speech synthesis | |
Baljekar et al. | An Investigation of Convolution Attention Based Models for Multilingual Speech Synthesis of Indian Languages. | |
JP7466784B2 (ja) | グラフベースの時間的分類を用いたニューラルネットワークの訓練 | |
JP2017010249A (ja) | パラメタ学習装置、文類似度算出装置、方法、及びプログラム | |
JP6973192B2 (ja) | 言語モデルを利用する装置、方法及びプログラム | |
JP5914054B2 (ja) | 言語モデル作成装置、音声認識装置、およびそのプログラム | |
CN113609873A (zh) | 翻译模型训练方法、装置及介质 | |
WO2019163752A1 (ja) | 形態素解析学習装置、形態素解析装置、方法、及びプログラム | |
US20210365780A1 (en) | Method of generating model and information processing device | |
Zhang et al. | Character-Aware Sub-Word Level Language Modeling for Uyghur and Turkish ASR | |
CN115374784A (zh) | 一种多模态信息选择性融合的中文命名实体识别方法 | |
CN109446537B (zh) | 一种针对机器翻译的译文评估方法及装置 | |
Wang et al. | Sequence adversarial training and minimum bayes risk decoding for end-to-end neural conversation models | |
JP2019185400A (ja) | 文生成装置、文生成方法及び文生成プログラム | |
JP7411149B2 (ja) | 学習装置、推定装置、学習方法、推定方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200825 |
|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20201110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220421 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7072178 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |