JP7464942B2 - 文変換装置、文変換方法及びプログラム - Google Patents
文変換装置、文変換方法及びプログラム Download PDFInfo
- Publication number
- JP7464942B2 JP7464942B2 JP2020179423A JP2020179423A JP7464942B2 JP 7464942 B2 JP7464942 B2 JP 7464942B2 JP 2020179423 A JP2020179423 A JP 2020179423A JP 2020179423 A JP2020179423 A JP 2020179423A JP 7464942 B2 JP7464942 B2 JP 7464942B2
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- vector
- model
- learning
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims description 60
- 238000000034 method Methods 0.000 title claims description 40
- 239000013598 vector Substances 0.000 claims description 42
- 238000012549 training Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 17
- 230000009466 transformation Effects 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 9
- 238000013519 translation Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000001537 neural effect Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 101150040334 KLHL25 gene Proteins 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000001915 proofreading effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
学習フェーズの目的は、自動翻訳モデルをデータから学習することである。本実施の形態では、各ドメイン特化の(複数の)自動翻訳モデルを一つのモデルで表現したモデルが構築される。その実現のために、(1)入力側言語の言語モデル(以下、「言語モデルm1」という。)、(2)入力側言語の文クラスタリングモデル(以下、「文クラスタリングモデルm2」という。)、(3)系列変換モデルm3の合計3種類のモデルが構築される。構築された3つのモデルが具体的にどのように用いられるかについては、評価フェーズのセクションで詳しく述べる。
図4は、言語モデルm1の学習に関する文変換装置10の機能構成例を示す図である。図4において、文変換装置10は、言語モデルm1を構成する符号化部11及び推定部12と、言語モデル学習部13とを有する。これら各部は、文変換装置10にインストールされた1以上のプログラムが、プロセッサ104に実行させる処理により実現される。
手順(2)では、入力側言語の文章集合を、手順(1)で獲得した言語モデルm1の計算結果にしたがってK個のクラスタに分割する。ここで、クラスタは、ドメインを効率的に表現することが可能な粒度に相当する。すなわち、クラスタとドメインとは、必ずしも一対一に対応しなくてよい。例えば、8個のクラスタに分割された場合、クラスタ1,2,5がドメイン1に対応し、クラスタ3,7がドメイン2に対応し、クラスタ4はドメイン1とドメイン2に対応するという場合もあり得る。なお、手順(2)で用いる入力側言語の文章集合は、手順(1)で用いた学習データDsとは別の文章集合でもよいし、同じ文書集合でもよい。説明を簡単にするため、ここでは同じDsを用いて説明する。
手順(3)において、文変換装置10は、入力側言語及び出力側言語の対応関係が取れているペアの文章集合を、手順(1)及び(2)で獲得した言語モデルm1及びクラスタリングのパラメタとその定義を利用して、入力側言語の文章から出力側言語の文章を獲得する系列変換モデルm3を学習する。手順(1)及び(2)で用いた入力側言語の文章集合と、手順(3)で用いる学習データの入力側言語の文章とは、必ずしも同じでなくてもよい。ここでは、説明を簡単にするため、入力側言語及び出力側言語の対応関係が取れているペアの文章集合をDt={(Xs n,Xt n)}N n=1と表記する。nが共通するXs nとXt nは、同じ意味を持つ入力側言語の文章と出力側言語の文章とする。
学習フェーズにより、入力側の言語の文章から出力側の言語の文章へ変換するために必要なパラメタ(^Ws,^Wc,^V,^Wt)の学習が完了している。これらの学習済みのパラメタを用いて、文変換装置10が実際に入力側言語の未知の文章に対して変換を行うのが評価フェーズである。評価フェーズでは、学習済みのパラメタは固定されている(値は変わらない)ことを想定する。
11 符号化部
12 推定部
13 言語モデル学習部
21 文クラスタリング部
22 文クラスタリングモデル学習部
31 復号化部
32 系列変換モデル学習部
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 プロセッサ
105 インタフェース装置
B バス
d1 復号化器
e1 符号化器
m1 言語モデル
m2 文クラスタリングモデル
m3 系列変換モデル
Claims (4)
- 学習済みの符号化器による文の符号化により得られる第1のベクトルに基づいて前記文のクラスタリングを行う文クラスタリングモデルのモデルパラメタと、各クラスタの重心ベクトルとを、学習データに含まれる各文の前記第1のベクトルに基づいて学習する学習部と、
入力文について前記符号化器による符号化により得られる前記第1のベクトルと、学習済みの前記文クラスタリングモデルから当該第1のベクトルに基づいて出力される第2のベクトルと、前記各重心ベクトルとに基づいて、前記入力文についての所定の変換処理の結果である出力文を生成する復号化部と、
を有することを特徴とする文変換装置。 - 前記学習部は、前記学習データに含まれる文ごとに、前記文クラスタリングモデルから出力される前記第2のベクトルと前記各重心ベクトルとの距離の最小値と特定し、前記学習データに含まれる文ごとに特定した前記最小値の総和が最小になるように、前記モデルパラメタと前記重心ベクトルとを学習する、
ことを特徴とする請求項1記載の文変換装置。 - 学習済みの符号化器による文の符号化により得られる第1のベクトルに基づいて前記文のクラスタリングを行う文クラスタリングモデルのモデルパラメタと、各クラスタの重心ベクトルとを、学習データに含まれる各文の前記第1のベクトルに基づいて学習する学習手順と、
入力文について前記符号化器による符号化により得られる前記第1のベクトルと、学習済みの前記文クラスタリングモデルから当該第1のベクトルに基づいて出力される第2のベクトルと、前記各重心ベクトルとに基づいて、前記入力文についての所定の変換処理の結果である出力文を生成する復号化手順と、
をコンピュータが実行することを特徴とする文変換方法。 - 請求項1又は2記載の文変換装置としてコンピュータを機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020179423A JP7464942B2 (ja) | 2020-10-27 | 2020-10-27 | 文変換装置、文変換方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020179423A JP7464942B2 (ja) | 2020-10-27 | 2020-10-27 | 文変換装置、文変換方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022070385A JP2022070385A (ja) | 2022-05-13 |
JP7464942B2 true JP7464942B2 (ja) | 2024-04-10 |
Family
ID=81535207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020179423A Active JP7464942B2 (ja) | 2020-10-27 | 2020-10-27 | 文変換装置、文変換方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7464942B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110472255A (zh) | 2019-08-20 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 神经网络机器翻译方法、模型、电子终端以及存储介质 |
JP2020112915A (ja) | 2019-01-09 | 2020-07-27 | 株式会社Nttドコモ | データ生成装置 |
US20200311195A1 (en) | 2019-04-01 | 2020-10-01 | International Business Machines Corporation | Controllable Style-Based Text Transformation |
-
2020
- 2020-10-27 JP JP2020179423A patent/JP7464942B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020112915A (ja) | 2019-01-09 | 2020-07-27 | 株式会社Nttドコモ | データ生成装置 |
US20200311195A1 (en) | 2019-04-01 | 2020-10-01 | International Business Machines Corporation | Controllable Style-Based Text Transformation |
CN110472255A (zh) | 2019-08-20 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 神经网络机器翻译方法、模型、电子终端以及存储介质 |
Non-Patent Citations (2)
Title |
---|
TARS, Sanger, FISHEL, Mark,Multi-Domain Neural Machine Translation,インターネット,2018年05月06日,pp.1-11,URL: https://arxiv.org/abs/1805.02282/ |
大内 啓樹 外2名,意味役割付与における未知分野へのニューラル分野適応技術,情報処理学会 研究報告 自然言語処理(NL) 2017-NL-233 [online] ,日本,情報処理学会,2017年10月17日,pp.1-10,Internet<URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=183794&file_id=1&file_no=1> |
Also Published As
Publication number | Publication date |
---|---|
JP2022070385A (ja) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11741309B2 (en) | Templated rule-based data augmentation for intent extraction | |
Artetxe et al. | Unsupervised neural machine translation | |
Peng et al. | Incrementally learning the hierarchical softmax function for neural language models | |
CN108875807B (zh) | 一种基于多注意力多尺度的图像描述方法 | |
JP5413622B2 (ja) | 言語モデル作成装置、言語モデル作成方法、およびプログラム | |
CN109657051A (zh) | 文本摘要生成方法、装置、计算机设备及存储介质 | |
EP3583512A1 (en) | A method and apparatus for performing hierarchical entity classification | |
CN109299479A (zh) | 通过门控机制将翻译记忆融入神经机器翻译的方法 | |
CN116324972A (zh) | 用于多语言语音识别框架的系统和方法 | |
CN111460833A (zh) | 文本生成方法、装置和设备 | |
JP7072178B2 (ja) | 自然言語処理のための装置、方法及びプログラム | |
CN107766319B (zh) | 序列转换方法及装置 | |
Press et al. | You may not need attention | |
CN113220865B (zh) | 一种文本相似词汇检索方法、系统、介质及电子设备 | |
CN104933038A (zh) | 机器翻译方法和机器翻译装置 | |
CN113407709A (zh) | 生成式文本摘要系统和方法 | |
CN112597778A (zh) | 一种翻译模型的训练方法、翻译方法以及设备 | |
CN113239710A (zh) | 多语言机器翻译方法、装置、电子设备和存储介质 | |
CN113360610A (zh) | 基于Transformer模型的对话生成方法及系统 | |
US20230325423A1 (en) | Method and system for improving performance of text summarization | |
CN111401037A (zh) | 自然语言的生成方法、装置、电子设备及存储介质 | |
CN113823272A (zh) | 语音处理方法、装置、电子设备以及存储介质 | |
WO2021139233A1 (zh) | 数据扩充混合策略生成方法、装置和计算机设备 | |
CN117216200A (zh) | 大型语言模型的微调方法和基于大型语言模型的智能助手 | |
CN112287694A (zh) | 基于共享编码器的汉越无监督神经机器翻译方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20201029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20201029 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7464942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |