JP6946842B2 - モデル学習装置、変換装置、方法、及びプログラム - Google Patents
モデル学習装置、変換装置、方法、及びプログラム Download PDFInfo
- Publication number
- JP6946842B2 JP6946842B2 JP2017156514A JP2017156514A JP6946842B2 JP 6946842 B2 JP6946842 B2 JP 6946842B2 JP 2017156514 A JP2017156514 A JP 2017156514A JP 2017156514 A JP2017156514 A JP 2017156514A JP 6946842 B2 JP6946842 B2 JP 6946842B2
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- prefix
- output
- word
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
Description
まず現在のニューラル機械翻訳の主流である、アテンション付きエンコーダデコーダモデル(attention-based encoder-decoder model,注意付き符号器復号器モデル)について説明する(非特許文献1、非特許文献5参照)。
に写像するリカレントニューラルネットワーク(recurrent neural network)である。デコーダ(decoder,復号器)は、出力系列yを文頭から一つずつ予測するリカレントニューラルネットワークである。エンコーダデコーダモデルは、確率的勾配降下法(stochastic gradient descent, SGD)を使って以下(2)式のように対訳データDの条件付き尤度を最大化するように学習される。
Sennrichらは、英語からドイツ語への翻訳において目的言語文の丁寧さを制御する方法として付加制約(side constraints)を提案した(非特許文献6)。この方法では、目的言語文におけるラテン語のTuのような親称(familiar)とラテン語のVosのような敬称(polite)の使用を区別するT-Vタグ(T-V distinction tag)を、原言語文の末尾に付加する。
一般に、ニューラル機械翻訳では、目的言語側を生成する際に、文頭から文末方向(左から右,left-to-right)に生成した結果と文末から文頭方向(右から左,right-to-left) に生成した結果が異なる。この性質を利用して、翻訳精度の向上を図ることを双方向デコーディング(bidirectional decoding)と呼ぶ。
一般に翻訳対象となる領域(domain)の対訳データを大量に用意できない場合、翻訳対象とは異なる領域の対訳データを利用して翻訳精度の向上を図る。これを領域適応(domain adaptation)と呼ぶ。
日本語や中国語のように文脈から了解可能な主語を省略するpro-drop 言語から、英語のような主語が必須である(主語の省略を許さない)non-pro-drop言語への翻訳では、原言語文において省略された主語や目的語を検出し、これに対応する主語や目的語を目的言語文で生成する必要がある。
竹野らは、日本語や中国語におけるゼロ代名詞を英語の代名詞へ翻訳する問題を包含し一般化した課題として、欠落語(missing word) の予測を定義し、対訳データから求めた単語翻訳確率を用いて欠落語を同定する方法を提案している(非特許文献9)。非特許文献9では、互いに翻訳になっている文の対が与えられた際に、相手の言語には対応する単語が存在しない単語を不対応語(unaligned word)と呼び、特に目的言語文に存在する不対応語を欠落語(missing word)と呼んでいる。
付加制約(side constraints)が原言語の文末に特別な記号を付加するのに対して、本発明の実施の形態では、特別な記号列を目的言語の先頭に付加することを提案する。これを接頭辞制約(prefix constraints)と呼ぶ。接頭辞制約の予測は、言い換えれば、原言語文から、特別な記号列を目的言語文の接頭辞(prefix)とする拡張された目的言語文への翻訳である。
(2)全体:5つの対訳コーパスを単純に一つにまとめて変換モデルを作成し、各対訳コーパスのテスト文で翻訳精度を評価した。
(3)領域予測:各対訳コーパスにおいて、対訳コーパス名を領域タグとし、付与したものを一つにまとめて変換モデルを作成し、各対訳コーパスのテスト文で翻訳精度を評価(接頭辞制約予測)した。
(4)領域指定:変換モデルとテスト文は分野予測の場合と同じである。デコーディングの際に正解の領域(対訳コーパス名)を与えて翻訳(接頭辞制約付きデコーディング)を行った。
20、220、320、420、520、620 演算部
30 原言語文抽出部
32 目的言語文抽出部
34、334、534 接頭辞作成部
36、336、536 文作成部
38、338、538 変換モデル学習部
40、240、340、440、540、640 変換モデル
230、430、630 変換部
232、432、632 整形部
250、450、650 出力部
550 単語対応部
552 単語翻訳確率計算部
554 目的言語不対応語候補リスト作成部
556 目的言語不対応語抽出部
558 目的言語不対応語接頭辞作成部
Claims (21)
- 入力文と、前記入力文と出力文との組に関する特徴を表す情報である一つ以上の記号の列を接頭辞として先頭に付加された前記出力文とに基づいて、前記入力文を、前記接頭辞が先頭に付加された前記出力文に変換するための変換モデルを学習するモデル学習部
を含むモデル学習装置。 - 前記入力文と前記出力文との組について、前記接頭辞を作成する接頭辞作成部を更に含み、
前記モデル学習部は、前記入力文と、前記接頭辞作成部によって作成された前記接頭辞が先頭に付加された前記出力文とに基づいて、前記変換モデルを学習する請求項1に記載のモデル学習装置。 - 入力文と出力文との組に関する特徴を表す情報である一つ以上の記号の列から構成される接頭辞と、前記出力文とに基づいて、前記出力文に対して、前記接頭辞に応じて定められた処理を実行した処理結果の先頭に、前記接頭辞を付加する文作成部と、
前記入力文と、前記文作成部により前記接頭辞が先頭に付加された前記出力文の前記処理結果とに基づいて、前記入力文を、前記接頭辞が先頭に付加された前記出力文の前記処理結果に変換するための変換モデルを学習するモデル学習部と、
を含むモデル学習装置。 - 前記変換モデルの学習において、前記変換は、前記入力文の単語系列を内部状態系列に変換するエンコーダと、
前記入力文の各単語に対する重みを計算し、前記エンコーダの各単語に対応するエンコーダの内部状態に対する重み付き和を出力するアテンション層と、
前記接頭辞が先頭に付加された前記出力文を先頭から一単語ずつ予測するデコーダであって、前記デコーダが単語を予測するステップの各々において、前記アテンション層からの出力と、一つ前のステップのデコーダの内部状態と、一つ前のステップで予測として出力された単語とを入力とするデコーダとを用いて行うことを特徴とする請求項1〜3のいずれか1項に記載のモデル学習装置。 - 前記接頭辞は、前記入力文と前記出力文との組に関する特徴を表す情報を一つ以上含み、異なる接頭辞は、異なる前記特徴を表す情報を含むことを特徴とする請求項1〜4のいずれか1項に記載のモデル学習装置。
- 前記接頭辞が付加された前記出力文において、前記接頭辞と前記出力文とは、識別子によって区分される請求項1〜5のいずれか1項に記載のモデル学習装置。
- 前記入力文を原言語文とし、前記出力文を目的言語文として、
前記変換モデルは、前記原言語文を、前記接頭辞が先頭に付加された前記目的言語文に変換するためのものである請求項1〜6の何れか1項に記載のモデル学習装置。 - 予め学習された、入力文を、前記入力文と出力文との組に関する特徴を表す情報である一つ以上の記号の列が接頭辞として先頭に付加された前記出力文に変換する変換モデルを用いて、前記入力文を前記接頭辞が先頭に付加された出力文に変換する変換部
を含む変換装置。 - 予め学習された、入力文を、前記入力文と出力文との組に関する特徴を表す情報である一つ以上の記号の列が接頭辞として先頭に付加された前記出力文に変換する変換モデルを用いて、前記入力文を前記接頭辞が先頭に付加された出力文に変換する変換部を含み、
前記変換部は、
前記入力文の単語系列を内部状態系列に変換するエンコーダと、
前記入力文の各単語に対する重みを計算し、前記エンコーダの各単語に対応する内部状態の重み付き和を出力するアテンション層と、
前記接頭辞が先頭に付加された前記出力文を先頭から一単語ずつ予測するデコーダであって、前記デコーダが単語を予測するステップの各々において、前記アテンション層からの出力と、一つ前のステップのデコーダの内部状態と、一つ前のステップで予測として出力された単語とを入力とするデコーダとを備える変換装置。 - 入力文と、前記入力文と出力文との組に関する特徴を表す情報である一つ以上の記号からなる接頭辞とを入力とし、予め学習された、入力文を、前記接頭辞が先頭に付加された前記出力文に変換する変換モデルを用いて、前記入力文を前記接頭辞が先頭に付加された出力文に変換する変換部を含み、
前記変換部は、
前記入力文の単語系列を内部状態系列に変換するエンコーダと、
前記入力文の各単語に対する重みを計算し、前記エンコーダの各単語に対応する内部状態の重み付き和を出力するアテンション層と、
前記接頭辞が先頭に付加された前記出力文を先頭から一単語ずつ予測するデコーダであって、前記デコーダが単語を予測するステップの各々において、前記アテンション層からの出力と、一つ前のステップのデコーダの内部状態と、一つ前のステップで予測として出力された単語とを入力とするデコーダとを備え、
前記一つ前のステップで予測として出力された単語が、入力された接頭辞の対応する記号と異なる場合、前記入力された接頭辞の対応する記号を、前記一つ前のステップで予測として出力された単語の代わりとする
変換装置。 - 前記変換部により出力された前記接頭辞に応じて定められた処理を、前記変換部により出力された出力文に対して行う整形部を更に備える請求項8〜10の何れか1項に記載の変換装置。
- 前記変換部は、前記接頭辞と前記出力文とは、識別子によって区分されるように、前記入力文を一つ以上の記号からなる接頭辞が先頭に付加された出力文に変換する請求項8〜11の何れか1項に記載の変換装置。
- 前記接頭辞は、
デコーダによる前記出力文の単語を予測する順序の方向、前記出力文が所属する領域、前記入力文に対応する単語がない、前記出力文の単語である不対応語に関する特徴に関する情報、前記不対応語の表記の列、及び前記不対応語の数の少なくとも1つである請求項8〜12の何れか1項に記載の変換装置。 - 前記入力文を原言語文とし、前記出力文を目的言語文として、
前記変換モデルは、前記原言語文を、前記接頭辞が先頭に付加された前記目的言語文に変換するためのものであり、
前記変換部は、前記原言語文を、前記接頭辞が先頭に付加された目的言語文に変換する請求項8〜13の何れか1項に記載の変換装置。 - モデル学習部が、入力文と、前記入力文と出力文との組に関する特徴を表す情報である一つ以上の記号の列が接頭辞として先頭に付加された前記出力文とに基づいて、前記入力文を、前記接頭辞が先頭に付加された前記出力文に変換するための変換モデルを学習するステップ
を含むモデル学習方法。 - 文作成部が、入力文と出力文との組に関する特徴を表す情報である一つ以上の接頭辞と、前記出力文とに基づいて、前記出力文に対して、前記接頭辞に応じて定められた処理を実行した処理結果の先頭に、前記接頭辞を付加するステップと、
モデル学習部が、前記入力文と、前記文作成部により前記接頭辞が先頭に付加された前記出力文の前記処理結果とに基づいて、前記入力文を、前記接頭辞が先頭に付加された前記出力文の前記処理結果に変換するための変換モデルを学習するステップと、
を含むモデル学習方法。 - 変換部が、予め学習された、入力文を、前記入力文と出力文との組に関する特徴を表す情報である一つ以上の記号の列が接頭辞として先頭に付加された前記出力文に変換する変換モデルを用いて、前記入力文を前記接頭辞が先頭に付加された出力文に変換するステップ
を含む変換方法。 - 変換部が、予め学習された、入力文を、前記入力文と出力文との組に関する特徴を表す情報である一つ以上の記号の列が接頭辞として先頭に付加された前記出力文に変換する変換モデルを用いて、前記入力文を前記接頭辞が先頭に付加された出力文に変換するステップを含み、
前記変換部は、
前記入力文の単語系列を内部状態系列に変換するエンコーダと、
前記入力文の各単語に対する重みを計算し、前記エンコーダの各単語に対応する内部状態の重み付き和を出力するアテンション層と、
前記接頭辞が先頭に付加された前記出力文を先頭から一単語ずつ予測するデコーダであって、前記デコーダが単語を予測するステップの各々において、前記アテンション層からの出力と、一つ前のステップのデコーダの内部状態と、一つ前のステップで予測として出力された単語とを入力とするデコーダとを備える変換方法。 - 変換部が、入力文と、前記入力文と出力文との組に関する特徴を表す情報である一つ以上の記号からなる接頭辞とを入力とし、予め学習された、入力文を、前記接頭辞が先頭に付加された前記出力文に変換する変換モデルを用いて、前記入力文を前記接頭辞が先頭に付加された出力文に変換するステップを含み、
前記変換部は、
前記入力文の単語系列を内部状態系列に変換するエンコーダと、
前記入力文の各単語に対する重みを計算し、前記エンコーダの各単語に対応する内部状態の重み付き和を出力するアテンション層と、
前記接頭辞が先頭に付加された前記出力文を先頭から一単語ずつ予測するデコーダであって、前記デコーダが単語を予測するステップの各々において、前記アテンション層からの出力と、一つ前のステップのデコーダの内部状態と、一つ前のステップで予測として出力された単語とを入力とするデコーダとを備え、
前記一つ前のステップで予測として出力された単語が、入力された接頭辞の対応する記号と異なる場合、前記入力された接頭辞の対応する記号を、前記一つ前のステップで予測として出力された単語の代わりとする
変換方法。 - コンピュータを、請求項1〜請求項7のいずれか1項に記載のモデル学習装置の各部として機能させるためのプログラム。
- コンピュータを、請求項8〜14のいずれか1項に記載の変換装置の各部として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017156514A JP6946842B2 (ja) | 2017-08-14 | 2017-08-14 | モデル学習装置、変換装置、方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017156514A JP6946842B2 (ja) | 2017-08-14 | 2017-08-14 | モデル学習装置、変換装置、方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019036093A JP2019036093A (ja) | 2019-03-07 |
JP6946842B2 true JP6946842B2 (ja) | 2021-10-13 |
Family
ID=65655698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017156514A Active JP6946842B2 (ja) | 2017-08-14 | 2017-08-14 | モデル学習装置、変換装置、方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6946842B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109933809B (zh) * | 2019-03-15 | 2023-09-15 | 北京金山数字娱乐科技有限公司 | 一种翻译方法及装置、翻译模型的训练方法及装置 |
CN111160006B (zh) * | 2019-12-06 | 2023-06-02 | 北京明略软件系统有限公司 | 一种实现指代消解的方法及装置 |
CN111143535B (zh) * | 2019-12-27 | 2021-08-10 | 北京百度网讯科技有限公司 | 用于生成对话模型的方法和装置 |
WO2022102364A1 (ja) * | 2020-11-13 | 2022-05-19 | 株式会社Nttドコモ | 文生成モデル生成装置、文生成モデル及び文生成装置 |
WO2023079911A1 (ja) * | 2021-11-04 | 2023-05-11 | 株式会社Nttドコモ | 文生成モデル生成装置、文生成モデル及び文生成装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004199519A (ja) * | 2002-12-19 | 2004-07-15 | Fujitsu Ltd | 機械翻訳方法、機械翻訳装置、および機械翻訳プログラム |
-
2017
- 2017-08-14 JP JP2017156514A patent/JP6946842B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019036093A (ja) | 2019-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6946842B2 (ja) | モデル学習装置、変換装置、方法、及びプログラム | |
KR102342066B1 (ko) | 뉴럴 네트워크 모델을 이용한 기계 번역 방법, 장치 및 그 장치를 학습시키기 위한 방법 | |
Kim et al. | Two-stage multi-intent detection for spoken language understanding | |
Viglino et al. | End-to-End Accented Speech Recognition. | |
Khan et al. | A novel natural language processing (NLP)–based machine translation model for English to Pakistan sign language translation | |
Jiampojamarn et al. | Joint processing and discriminative training for letter-to-phoneme conversion | |
CN110895559B (zh) | 模型训练、文本处理方法、装置以及设备 | |
US20130185049A1 (en) | Predicting Pronouns for Pro-Drop Style Languages for Natural Language Translation | |
Salloum et al. | Elissa: A dialectal to standard Arabic machine translation system | |
Khan et al. | RNN-LSTM-GRU based language transformation | |
KR100853173B1 (ko) | 통계적 자동 번역 방식에 기반한 음성 자동 통역 시스템 및그에 적용되는 번역 처리 방법 및 그 훈련방법 | |
CN111858935A (zh) | 一种航班点评的细粒度情感分类系统 | |
Vlachos et al. | A new corpus and imitation learning framework for context-dependent semantic parsing | |
Rei et al. | Auxiliary objectives for neural error detection models | |
KR20230016794A (ko) | 언어 모델을 이용한 데이터 생성 방법, 컴퓨터 장치, 및 컴퓨터 프로그램 | |
Nguyen et al. | Adaptive edit-distance and regression approach for post-OCR text correction | |
Liu et al. | Multiple relations extraction among multiple entities in unstructured text | |
CN100454294C (zh) | 用于将日文翻译成中文的设备 | |
Kuriyozov et al. | Construction and evaluation of sentiment datasets for low-resource languages: The case of Uzbek | |
Sharath et al. | Question answering over knowledge base using language model embeddings | |
CN109815497B (zh) | 基于句法依存的人物属性抽取方法 | |
Sitender et al. | Effect of GloVe, Word2Vec and fastText embedding on english and hindi neural machine translation systems | |
JP2005208782A (ja) | 自然言語処理システム及び自然言語処理方法、並びにコンピュータ・プログラム | |
Shahid et al. | Next word prediction for Urdu language using deep learning models | |
Verma et al. | A Novel Framework for Ancient Text Translation Using Artificial Intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20170815 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20170901 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200120 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20200120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210205 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210317 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6946842 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |