JP7287062B2 - 翻訳方法、翻訳プログラム及び学習方法 - Google Patents

翻訳方法、翻訳プログラム及び学習方法 Download PDF

Info

Publication number
JP7287062B2
JP7287062B2 JP2019067666A JP2019067666A JP7287062B2 JP 7287062 B2 JP7287062 B2 JP 7287062B2 JP 2019067666 A JP2019067666 A JP 2019067666A JP 2019067666 A JP2019067666 A JP 2019067666A JP 7287062 B2 JP7287062 B2 JP 7287062B2
Authority
JP
Japan
Prior art keywords
sentence
translation
named entity
language
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019067666A
Other languages
English (en)
Other versions
JP2020166672A (ja
Inventor
明波 三浦
友哉 岩倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019067666A priority Critical patent/JP7287062B2/ja
Priority to US16/821,273 priority patent/US11669695B2/en
Publication of JP2020166672A publication Critical patent/JP2020166672A/ja
Application granted granted Critical
Publication of JP7287062B2 publication Critical patent/JP7287062B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/47Machine-assisted translation, e.g. using translation memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/45Example-based machine translation; Alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)

Description

本発明は、翻訳方法、翻訳プログラム及び学習方法に関する。
従来、ニューラルネットワークを用いて翻訳を行うニューラル機械翻訳が知られている。ニューラル機械翻訳で用いられるニューラルネットワークは、ある言語で書かれた原文と他の言語で書かれた対訳文の組を教師データとして訓練される。また、ニューラル機械翻訳では、アテンション機構を備えたエンコーダ・デコーダモデルが使われる場合がある。
特開2016-099675号公報
しかしながら、上記の技術には、固有表現を適切に翻訳できない場合があるという問題がある。ここで、固有表現とは、人名や組織名等の固有名詞、日付や時間等の数的表現等を表す。また、固有表現とは、化学物質名や遺伝子名、薬品名等といった専門用語を含む拡張固有表現である。
固有表現は、その種類が多いことに起因して、一般名詞や動詞、助詞等と比較して教師データにおける出現頻度が低くなる傾向があり、十分に学習されない場合がある。また、あらかじめ固有表現との対訳辞書を用意しておくことも考えられるが、その場合、対訳辞書に載っていない固有表現を翻訳することは難しく、また、全ての固有表現を網羅することは困難である。
1つの側面では、固有表現を適切に翻訳することを目的とする。
1つの実施態様では、翻訳方法は、第1の言語で書かれた文を、文の中の固有表現を所定の文字列に置き換えた置換文に変換する処理をコンピュータが実行する。また、翻訳方法は、ニューラルネットワークである文翻訳モデルを用いて、置換文を第2の言語に翻訳する処理をコンピュータが実行する。また、翻訳方法は、ニューラルネットワークである固有表現翻訳モデルを用いて、置換文の中の所定の文字列に対応する固有表現を第2の言語に翻訳する処理をコンピュータが実行する。
1つの側面では、固有表現を適切に翻訳することができる。
図1は、実施例に係る翻訳装置の機能構成の一例を示す図である。 図2は、学習処理を説明するための図である。 図3は、翻訳処理を説明するための図である。 図4は、特定モデルを説明するための図である。 図5は、エンコーダデコーダを説明するための図である。 図6は、単語の出力について説明するための図である。 図7は、固有表現の翻訳処理を説明するための図である。 図8は、固有表現の翻訳処理を説明するための図である。 図9は、辞書情報の抽出について説明するための図である。 図10は、学習処理の流れを示すフローチャートである。 図11は、翻訳処理の流れを示すフローチャートである。 図12は、モデルによる処理の流れを示すフローチャートである。 図13は、ハードウェア構成例を説明する図である。 図14は、従来の翻訳結果を示す図である。 図15は、従来の翻訳結果を示す図である。
以下に、本発明に係る翻訳方法、翻訳プログラム及び学習方法の実施例を図面に基づいて詳細に説明する。なお、この実施例により本発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。翻訳方法及び学習方法は翻訳装置により実行される。また、翻訳プログラムは翻訳装置において実行される。
[機能構成]
図1を用いて、実施例に係る翻訳装置の機能構成について説明する。図1は、実施例に係る翻訳装置の機能構成の一例を示す図である。図1に示すように、翻訳装置10は、インタフェース部11、記憶部12及び制御部13を有する。
インタフェース部11は、他の装置との間のデータの入出力、及び他の装置との間でのデータの通信を行うためのインタフェースである。例えば、インタフェース部11は、キーボードやマウス等の入力装置、ディスプレイやスピーカ等の出力装置、USBメモリ等の外部記憶装置との間でデータの入出力を行う。また、例えば、インタフェース部11はNIC(Network Interface Card)であり、インターネットを介してデータの通信を行う。
記憶部12は、データや制御部13が実行するプログラム等を記憶する記憶装置の一例であり、例えばハードディスクやメモリ等である。記憶部12は、特定モデル情報121、文翻訳モデル情報122、固有表現翻訳モデル情報123及び辞書情報124を記憶する。
特定モデル情報121は、特定モデルを構築するための情報である。特定モデルは、第1の言語で書かれた文から固有表現を特定するためのモデルである。例えば、特定モデルは学習済みのニューラルネットワークである。この場合、特定モデル情報121は、ニューラルネットワークの重みやバイアスである。例えば、第1の言語は英語である。
文翻訳モデル情報122は、文翻訳モデルを構築するための情報である。文翻訳モデルは、第1の言語で書かれた入力文を第2の言語に翻訳した出力文を出力する。また、入力文は、固有表現がプレースホルダに置き換えられた置換文であってもよい。例えば、文翻訳モデルは学習済みのニューラルネットワークである。このとき、文翻訳モデル情報122は、ニューラルネットワークの重みやバイアスである。例えば、第2の言語は日本語である。
固有表現翻訳モデル情報123は、固有表現翻訳モデルを構築するための情報である。固有表現翻訳モデルは、第1の言語で書かれた固有表現を第2の言語に翻訳した表現を出力する。例えば、固有表現翻訳モデルは学習済みのニューラルネットワークである。このとき、固有表現翻訳モデル情報123は、ニューラルネットワークの重みやバイアスである。
前述の通り、固有表現とは、人名や組織名等の固有名詞、日付や時間等の数的表現、化学物質名や遺伝子名、薬品名といった技術用語等である。なお、「表現」は、「語句(expression)」と言い換えてもよい。
辞書情報124は、第1の言語で書かれた固有表現と、当該固有表現を第2の言語に翻訳した表現とを対応付けた情報である。辞書情報124は、外部から収集された情報であってもよいし、翻訳装置10における各処理の過程で得られた情報であってもよい。例えば、辞書情報124は、固有表現翻訳モデルの学習に用いられる。
制御部13は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部13は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部13は、変換部131、学習部132、翻訳部133及び抽出部134を有する。
変換部131は、第1の言語で書かれた文を、文の中の固有表現をプレースホルダに置き換えた置換文に変換する。このとき、変換部131は、特定モデル情報121を基に構築された特定モデルを使って固有表現を特定する。また、プレースホルダは、所定の文字列の一例である。
学習部132は、第1の言語で書かれた文の中の固有表現を所定のプレースホルダに置き換えた置換文が入力された場合に、置換文を第2の言語に翻訳した文を出力するように、ニューラルネットワークである文翻訳モデルの学習を行う。また、学習部132は、プレースホルダに置き換えられた固有表現が入力された場合に、固有表現を第2の言語に翻訳した表現を出力するように、ニューラルネットワークである固有表現翻訳モデルの学習を行う。
翻訳部133は、ニューラルネットワークである文翻訳モデルを用いて、置換文を第2の言語に翻訳する。このとき、翻訳部133は、置換文に含まれるプレースホルダは翻訳せずにそのまま出力する。そして、翻訳部133は、ニューラルネットワークである固有表現翻訳モデルを用いて、置換文の中のプレースホルダに対応する固有表現を第2の言語に翻訳する。
抽出部134は、第1の言語で書かれた文の中の固有表現と、翻訳部133によって第2の言語に翻訳された固有表現とを対応付けて抽出する。抽出部134は、抽出した情報を辞書情報124として記憶部12に格納する。
[学習処理]
以降、翻訳装置10による処理を詳細に説明する。まず、図2を用いて、翻訳装置10による学習処理について説明する。図2は、学習処理を説明するための図である。まず、教師データとして対訳文が用意されているものとする。対訳文は、第1の言語の文である原言語文と、当該原言語文を第2の言語に翻訳した目的言語文を含む。対訳文の目的言語文は人手で翻訳されたものであってもよい。
変換部131は、対訳文の固有表現を特定し、特定した固有表現にタグを付けた固有表現タグ付き文を生成する(ステップS1a)。さらに、変換部131は、固有表現タグ付き文のタグが付いた表現をプレースホルダに置き換え、置換文に変換する(ステップS2a)。
図2の例では、例えば、変換部131は、対訳文の原言語文の「demister」及び対訳文の目的言語文の「デミスタ」に「TECHNICAL」というタグを付け、「_technical1_」というプレースホルダに置き換える。変換部131は、技術用語を表すタグ「TECHNICAL」、サイズを表すタグ「SIZE」、数値を表すタグ「NUM」等を付ける。なお、タグは「<TECHNICAL>…</TECHNICAL>」のようなXMLタグであってよい。また、「_technical1_」、「_size1_」、「_num1_」等はプレースホルダの一例である。
学習部132は、置換文を教師データとして文翻訳モデルの学習を行う(ステップS3a)。このため、文翻訳モデルは、固有表現をプレースホルダに置き換えた原言語文を、固有表現をプレースホルダに置き換えた目的言語文に翻訳できるようになる。一方で、文翻訳モデルは、プレースホルダに対応する固有表現は翻訳せずにそのまま出力する。
学習部132は、フレーズ対訳文を教師データとして固有表現翻訳モデルの学習を行う(ステップS4a)。ここで、フレーズ対訳文とは、対訳文から特定された原言語文の固有表現と目的言語文の固有表現を対にした情報である。図2の例では、フレーズ対訳文には、「demister」と「デミスタ」を対にした「demister:デミスタ」といった情報が含まれる。これにより、文翻訳モデルは、原言語の固有表現を目的言語の固有表現に翻訳できるようになる。また、学習部132は、適宜外部辞書の情報を取り入れて固有表現翻訳モデルの精度を向上させることができる。
[翻訳処理]
次に、図3を用いて、翻訳装置10による翻訳処理について説明する。図3は、翻訳処理を説明するための図である。文翻訳モデル及び固有表現翻訳モデルは前述の学習処理において学習済みであるものとする。
変換部131は、入力文の固有表現を特定し、特定した固有表現にタグを付けた固有表現タグ付き文を生成する(ステップS1b)。さらに、変換部131は、固有表現タグ付き文のタグが付いた表現をプレースホルダに置き換え、置換文に変換する(ステップS2b)。入力文は、第1の言語の文である原言語文である。ここでは、入力文は被翻訳文であり、入力文に対する翻訳文は未知であるものとする。
図3の例では、例えば、変換部131は、対訳文の原言語文の「4cm2」に「SIZE」というタグを付け、「_size1_」というプレースホルダに置き換える。また、変換部131は、固有表現とプレースホルダをリスト化したプレースホルダリストを生成する。例えば、プレースホルダリストには、「_size1_:4cm2」、「_technical1_:active area」、「_technical3_:Pd foil」といった情報が含まれる。
翻訳部133は、文翻訳モデルを用いて、置換文を翻訳する(ステップS3b)。このとき、プレースホルダは、文翻訳モデルによっては翻訳されずにプレースホルダとして出力される。そのため、翻訳部133は、固有表現翻訳モデルを用いてプレースホルダを翻訳する(ステップS5b)。
ただし、文翻訳モデルから出力されたプレースホルダが、どの固有表現に対応しているかは不明である。このため、翻訳部133は、文翻訳モデルから出力されたプレースホルダが、どの固有表現に対応するプレースホルダであるかを、アテンション機構を用いて特定する(ステップS4b)。これにより、翻訳部133は、プレースホルダリストを参照し、どの固有表現を翻訳すればよいかを特定することができる。例えば、アテンション機構(attention mechanism)は、エンコーダの中間表現に基づき、デコーダの出力に重み付けを行う仕組みであるといえる。なお、以降の説明では、アテンション機構が文翻訳モデルに含まれるものとする。
例えば、文翻訳モデルがプレースホルダを出力したとする。このとき、翻訳部133は、アテンション機構によって計算されるアテンションスコアを基に、出力されたプレースホルダが「_technical1_」であることを特定する。そして、プレースホルダリストを参照すると「_technical1_」が「active area」に対応していることがわかるので、翻訳部133は、固有表現翻訳モデルを用いて、「active area」を「活性面積」に翻訳する。
図3の例では、翻訳装置10は、「The 4 cm2 active area permselective separator membrane was a 25 micron thick Pd foil.」という入力文から、「4cm2の活性面積であった選択透過セパレータ膜は25ミクロン厚のPdフォイルであった。」という出力文を得る。
[各モデルの詳細]
特定モデル、文翻訳モデル、固有表現翻訳モデルの詳細を説明する。実施例では、各モデルはいずれもニューラルネットワークであるものとする。
図4を用いて特定モデルを説明する。図4は、特定モデルを説明するための図である。図4に示すように、特定モデルは、固有表現タグ付き文にBIOタグを付与する。BIOタグは入力された各単語に対して付与され、「B-*」は固有表現開始を意味し、「I-*」は固有表現継続を意味し、「O」はそれ以外、すなわち固有表現ではないことを意味する。なお、*には「TECH」、「NUM」等のカテゴリを表す文字列が入る。また、BIOタグとXMLタグは一対一に対応するので、変換部131は、特定モデルによって付与されたBIOタグをXMLタグに変換することができる。また、「<s>」は入力文の先頭を意味し、「</s>」は入力文の末尾を意味する。
また、例えば、図2の学習処理において固有表現タグ付き文が人手で作成されていれば、学習部132は、当該固有表現タグ付き文と対訳文とを教師データとして特定モデルの学習を行うことができる。
具体的には、変換部131は、(1)式によりBIOタグが付与された文ytagを得る。
Figure 0007287062000001
ここで、vは、中間状態hを(2)式により確率分布へ変換したものである。
Figure 0007287062000002
また、中間状態hは、(3)式によりH次元からO次元に変換される。
Figure 0007287062000003
また、特定モデルの再帰ユニットでは、(4)式のように中間状態hiが計算される。
Figure 0007287062000004
また、入力文の単語の埋め込みは、(5-1)式及び(5-2)式により行われる。
Figure 0007287062000005
ここで、実施例において、文翻訳モデルはエンコーダデコーダであるものとする。図5を用いて、エンコーダデコーダを説明する。図5は、エンコーダデコーダを説明するための図である。
図5に示すように、エンコーダには、固有の整数値に変換された入力文が入力される。そして、入力文は単語埋め込み層において固定長の小数ベクトルに変換される((5-1)式及び(5-2)式を参照)。
エンコーダは、分散表現を、翻訳に必要な特徴量を有する中間表現へ変換する。デコーダは、中間表現と出力文から、次に生成される単語の生成確率を予測し、確率が最大になる単語を特定するID等を再帰的に出力する。なお、ここでの出力文は、生成されている途中の文であってもよい。また、デコーダはアテンション機構を備えている。
翻訳部133は、文翻訳モデルを用いて、第1の言語で書かれた文を翻訳する。翻訳モデルは、エンコーダとデコーダとアテンション機構とを備える。エンコーダは、置換文を、中間表現である文脈ベクトルに変換する。デコーダは、文脈ベクトルを基に、第2の言語の単語及びプレースホルダのいずれかを再帰的に出力する。アテンション機構は、文脈ベクトルに基づくアテンションスコアを基に、デコーダが出力したプレースホルダに対応する固有表現を特定する。翻訳部133は、固有表現翻訳モデルを用いて、アテンション機構によって特定された固有表現の翻訳を行う。文翻訳モデルの一例としては、置換文に含まれる単語を出現順に並べた系列を入力とするLSTM(Long Short Term Memory)である。
図6から図8を用いて、文翻訳モデル及び固有表現翻訳モデルについて説明する。図6は、単語の出力について説明するための図である。図6に示すように、翻訳部133は、文翻訳モデルのエンコーダに、第1の言語の文を表す整数値として、単語系列(1, 7, 3, 4, 27,…, 2)を入力する。図6に示すように、各整数は、記号、単語、プレースホルダ等に対応している。
エンコーダは、中間表現である入力文脈ベクトルを生成する。また、翻訳部133は、デコーダに、文の先頭を意味する記号「<s>」に対応する整数1を入力する。そして、デコーダは出力文脈ベクトルを生成する。
ここで、デコーダは、入力文脈ベクトル及び出力文脈ベクトルから、(6)式によりアテンションスコアを計算する。
Figure 0007287062000006
さらに、デコーダは、(7)式によりアテンションスコアを正規化する。
Figure 0007287062000007
そして、デコーダは、(8)式により入力文脈ベクトルの加重平均を計算する。
Figure 0007287062000008
デコーダは、入力文脈ベクトルの加重平均を確率分布に変換し、最も確率が高い単語又はプレースホルダを選択する。ここでは、デコーダは、単語「この」に対応する整数8を選択し出力する。さらに、翻訳部133は、出力された整数8を再帰的にデコーダに入力する。
ここで、デコーダは、整数8の入力に対し、プレースホルダを選択したものとする。つまり、デコーダは、「この」の後に固有表現が続くと判断した。この場合のアテンション機構による処理を、図7を用いて説明する。図7は、固有表現の翻訳処理を説明するための図である。
このとき、アテンション機構は、アテンションスコアが最大となるプレースホルダを特定する。図7の例では、アテンション機構は、中間表現hx3に対応するプレースホルダ、すなわち整数3で表される「_tech_」を特定する。そして、翻訳部133は、プレースホルダリストからプレースホルダ「_tech_」に対応する固有表現「demister」を取得し、固有表現「demister」を固有表現翻訳モデルに入力する。そして、固有表現翻訳モデルは、「demister」を第2の言語に翻訳した「デミスタ」に対応する整数287を出力する。
さらに、図8に示すように、翻訳部133は、「デミスタ」に対応する整数287をデコーダに入力する。図8は、固有表現の翻訳処理を説明するための図である。このとき、デコーダは、プレースホルダを選択する。そして、アテンション機構は、プレースホルダが固有表現「40」に対応する「_size_」であることを特定する。そして、固有表現翻訳モデルは、固有表現「40」を第2の言語に翻訳した「40」を出力する。なお、この場合、「40」は第1の言語と第2の言語で共通した単語であるため、翻訳しても文字列としては変化しない。
この時点で、翻訳部133は、「このデミスタ40」という出力文を得ており、固有表現を正確に翻訳できている。
図9は、辞書情報の抽出について説明するための図である。図9に示すように、抽出部134は、学習処理において、固有表現タグ付き文からプレースホルダへの置換が行われる過程で辞書情報124を抽出することができる。変換部131は、第1の言語の単語と第2の言語の単語の対応付けを、例えばIBMモデルを用いて行う。例えば、図9に示すように、タグ「TECHNICAL」が付された第1の言語の単語「demister」は、第2の言語の単語「デミスタ」に対応付けられ、プレースホルダ「_tech_」に置き換えられる。このため、抽出部134は、「demister:デミスタ」という情報を抽出することができる。
[処理の流れ]
図10を用いて、翻訳装置10による学習処理の流れを説明する。図10は、学習処理の流れを示すフローチャートである。図10に示すように、まず、翻訳装置10は、原言語文と目的言語文から固有表現を特定しタグ付けする(ステップS11)。次に、翻訳装置10は、原言語文の固有表現をプレースホルダに置換する(ステップS12)。
翻訳装置10は、文翻訳モデルで置換文を翻訳する(ステップS13)。また、翻訳装置10は、固有表現翻訳モデルで固有表現を翻訳する(ステップS14)。そして、翻訳装置10は、翻訳結果を目的言語文と比較し、各モデルを更新する(ステップS15)。
図11を用いて、翻訳装置10による翻訳処理の流れを説明する。図11は、翻訳処理の流れを示すフローチャートである。図11に示すように、まず、翻訳装置10は、入力文から固有表現を特定しタグ付けする(ステップS21)。次に、翻訳装置10は、入力文の固有表現をプレースホルダに置換する(ステップS22)。ここで、翻訳装置10は、各モデルを使って入力文を翻訳し(ステップS23)、翻訳文を出力する(ステップS24)。
図12を用いて、モデルによる処理の流れを説明する。図12は、モデルによる処理の流れを示すフローチャートである。図12の処理は、図11のステップS23に対応する。まず、文翻訳モデルのエンコーダは、入力文の単語系列を中間表現に変換する(ステップS231)。次に、文翻訳モデルのデコーダは、中間表現を基に単語及びプレースホルダのいずれかを出力する(ステップS232)。
デコーダがプレースホルダを出力した場合(ステップS233、Yes)、文翻訳モデルのアテンション機構は、アテンションスコアによりプレースホルダを特定する(ステップS234)。そして、固有表現翻訳モデルは、特定されたプレースホルダに対応する固有表現を翻訳する(ステップS235)。デコーダが単語を出力した場合は(ステップS233、No)、固有表現翻訳モデルは翻訳を行わない。
デコーダによる出力が完了していない場合(ステップS236、No)、デコーダは、ステップS232に戻りさらに処理を実行する。デコーダによる出力が完了した場合(ステップS236、Yes)、翻訳装置10はモデルによる処理を終了する。
[効果]
上述したように、翻訳装置10は、第1の言語で書かれた文を、文の中の固有表現を所定の文字列(プレースホルダ)に置き換えた置換文に変換する。翻訳装置10は、ニューラルネットワークである文翻訳モデルを用いて、置換文を第2の言語に翻訳する。翻訳装置10は、ニューラルネットワークである固有表現翻訳モデルを用いて、置換文の中の所定の文字列に対応する固有表現を第2の言語に翻訳する。このように、翻訳装置10は、文全体の翻訳を行うモデルと、固有表現の翻訳を行うモデルの両方を使って翻訳を行う。また、文翻訳モデルが単語、サブワードを処理単位として文全体の翻訳を行うのに対し、固有表現翻訳モデルは、より短いサブワード、文字を処理単位として、単語及びフレーズの翻訳を翻字又は文字レベルで行う。このため、実施例によれば、固有表現を適切に翻訳することができる。
図14は、従来の翻訳結果を示す図である。図14に示すように、従来の翻訳モデルは、「カタルーニャ語」を意味する「Catalan」の翻訳が、「スペイン語」である確率が、「カタルーニャ語」である確率よりも高いという結果を出力する場合がある。このような誤訳は、同様の文脈の教師データにおける「スペイン語」の出現頻度が「カタルーニャ語」の出現頻度に比べて多い場合に起こり得る。
これに対し、実施例の翻訳装置10は、「Catalan」をプレースホルダに置き換えた上で、固有表現翻訳モデルを使って翻訳するため、従来よりも正確に翻訳できると考えられる。
図15は、従来の翻訳結果を示す図である。ここで、「permselective separator」は、正しくは「選択透過セパレータ膜」と翻訳されるものとする。また、「Pd foil」は、正しくは「Pdフォイル」と翻訳されるものとする。
これに対し、図15に示すように、従来の翻訳モデルは、「permselective separator」を無視して翻訳する場合がある。また、従来の翻訳モデルは、「Pd foil」を「機能箔」と翻訳する場合がある。このような誤訳や翻訳漏れは、翻訳モデルがそもそもこれらの固有表現を学習していない場合に起こり得る。
これに対し、実施例の翻訳装置10は、固有表現そのものを学習していない場合であっても、学習済みの固有表現翻訳モデルにより、当該固有表現をある程度正確に翻訳できると考えられる。
例えば、文翻訳モデルについては、固有表現を含んだ対訳文による学習に比べて、語彙サイズや文長(トークン数)が減少することにより文脈パターンの学習が容易になり、結果的に語順や機能語配置の精度が改善される。一方、固有表現翻訳モデルについては、固有表現のフレーズの翻訳のみに徹底すればよく、文脈の考慮が不要なため、文字レベル等のより細かい粒度で高精度な翻訳が可能になる。
また、翻訳装置10は、文翻訳モデルを用いて、第1の言語で書かれた文を翻訳する。文翻訳モデルは、エンコーダとデコーダとアテンション機構とを備える。エンコーダは、置換文を、中間表現である文脈ベクトルに変換する。デコーダは、文脈ベクトルを基に、第2の言語の単語及び所定の文字列(プレースホルダ)のいずれかを再帰的に出力する。アテンション機構は、文脈ベクトルに基づくアテンションスコアを基に、デコーダが出力した所定の文字列に対応する固有表現を特定する。翻訳装置10は、固有表現翻訳モデルを用いて、アテンション機構によって特定された固有表現の翻訳を行う。これにより、翻訳装置10は所定の文字列に対応する固有表現を特定することが可能になり、固有表現の翻訳精度をより向上させることができる。
文翻訳モデルのデコーダは、置換文に含まれる単語を出現順に並べた系列を入力とすることで出力文脈ベクトルを更新する。これにより、翻訳装置10は、文脈に沿った翻訳を行うことが可能になる。文翻訳モデルのデコーダは、例えば、LSTMである。
翻訳装置10は、第1の言語で書かれた文の中の固有表現と、第2の言語に翻訳された固有表現とを対応付けて抽出する。これにより、翻訳装置10は、辞書情報を抽出し、当該抽出した辞書情報を利用して固有表現の翻訳精度をより向上させることができる。
翻訳装置10は、第1の言語で書かれた文の中の固有表現を所定の文字列(プレースホルダ)に置き換えた置換文が入力された場合に、置換文を第2の言語に翻訳した文を出力するように、ニューラルネットワークである文翻訳モデルの学習を行う。また、翻訳装置10は、所定の文字列に置き換えられた固有表現が入力された場合に、固有表現を第2の言語に翻訳した表現を出力するように、ニューラルネットワークである固有表現翻訳モデルの学習を行う。このように、翻訳装置10は、対訳文を使って文翻訳モデルと固有表現翻訳モデルの両方の学習を行うことができる。このため、実施例によれば、対訳文を用いた学習により、文の翻訳の精度と、固有表現の翻訳精度の両方を向上させることができる。
ここで、専門分野の文書を想定し、90%の文章に固有表現が含まれるとする。また、文書全体の単語のうち、20%が固有表現を構成するとする。また、特定モデルによる固有表現の特定精度は90%とする。また、文中の固有表現情報が与えられた場合、固有表現翻訳モデルの固有表現翻訳の完全一致精度は98%とする。また、従来の翻訳モデルの場合、固有表現を含む文の25%は誤訳を含むとする。また、文翻訳モデルは、固有表現を含む文の90%以上で適切な翻訳対象の固有表現を選択可能とする。
固有表現は一般的に重要なキーワードとなるため、固有表現で1つでも誤訳がある場合、翻訳の質は低いとみなす。従来の翻訳モデルの場合、固有表現の誤訳を含む文の割合は、90% × 25% = 22.5% となる。一方、実施例のように文翻訳モデルと固有表現翻訳モデルを併用した場合、固有表現の誤訳を含む文の割合は、90% × (90% × 2% + 10% × 25%) = 3.87% となり、約18.63%の誤訳を防止できる。つまり、固有表現の正解率は75%から95.7%となり、精度が約20.7%向上する。
また、翻訳装置10は、特定モデル、文翻訳モデル、固有表現翻訳モデルをいずれもエンコーダデコーダとし、各モデルの学習をマルチタスク学習により行い、エンコーダの中間表現を共有するようにしてもよい。これにより、各モデルの性能はさらに向上する。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値等は、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図13は、ハードウェア構成例を説明する図である。図13に示すように、翻訳装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図14に示した各部は、バス等で相互に接続される。
通信インタフェース10aは、ネットワークインタフェースカード等であり、他のサーバとの通信を行う。HDD10bは、図1に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図1に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図1等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、翻訳装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、変換部131、学習部132、翻訳部133及び抽出部134と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、変換部131、学習部132、翻訳部133及び抽出部134等と同様の処理を実行するプロセスを実行する。プロセッサ10dは、例えば、CPU、MPU、ASIC等のハードウェア回路である。
このように翻訳装置10は、プログラムを読み出して実行することで分類方法を実行する情報処理装置として動作する。また、翻訳装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、翻訳装置10によって実行されることに限定されるものではない。例えば、他のコンピュータ又はサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 翻訳装置
11 インタフェース部
12 記憶部
13 制御部
131 変換部
132 学習部
133 翻訳部
134 抽出部
121 特定モデル情報
122 文翻訳モデル情報
123 固有表現翻訳モデル情報
124 辞書情報

Claims (6)

  1. 第1の言語で書かれた文を、前記文の中の固有表現を所定の文字列に置き換えた置換文に変換し、
    前記置換文を、中間表現である文脈ベクトルに変換するエンコーダと、前記文脈ベクトルを基に、第2の言語の単語及び前記所定の文字列のいずれかを再帰的に出力するデコーダと、前記文脈ベクトルに基づくアテンションスコアを基に、前記デコーダが出力した前記所定の文字列に対応する固有表現を特定するアテンション機構と、を備えたニューラルネットワークである文翻訳モデルを用いて、前記置換文を前記第2の言語に翻訳し、
    ニューラルネットワークである固有表現翻訳モデルを用いて、前記アテンション機構によって特定された前記固有表現を前記第2の言語に翻訳する
    処理をコンピュータが実行することを特徴とする翻訳方法。
  2. 前記変換する処理は、前記第1の言語で書かれた文を、前記所定の文字列にタグを付けた置換文に変換し、
    前記置換文を前記第2の言語に翻訳する処理は、前記固有表現を、前記タグを基に前記第2の言語に翻訳する
    ことを特徴とする請求項1に記載の翻訳方法。
  3. 前記置換文を前記第2の言語に翻訳する処理は、
    前記置換文に含まれる単語を出現順に並べた系列を入力とするLSTM(Long Short Term Memory)を用いて翻訳を行う
    ことを特徴とする請求項1又は2に記載の翻訳方法。
  4. 前記第1の言語で書かれた文の中の固有表現と、前記固有表現を翻訳する処理によって前記第2の言語に翻訳された固有表現とを対応付けて抽出する
    処理をさらに実行することを特徴とする請求項1から3のいずれか1項に記載の翻訳方法。
  5. 第1の言語で書かれた文を、前記文の中の固有表現を所定の文字列に置き換えた置換文に変換し、
    前記置換文を、中間表現である文脈ベクトルに変換するエンコーダと、前記文脈ベクトルを基に、第2の言語の単語及び前記所定の文字列のいずれかを再帰的に出力するデコーダと、前記文脈ベクトルに基づくアテンションスコアを基に、前記デコーダが出力した前記所定の文字列に対応する固有表現を特定するアテンション機構と、を備えたニューラルネットワークである文翻訳モデルを用いて、前記置換文を前記第2の言語に翻訳し、
    ニューラルネットワークである固有表現翻訳モデルを用いて、前記アテンション機構によって特定された前記固有表現を第2の言語に翻訳する
    処理をコンピュータに実行させることを特徴とする翻訳プログラム。
  6. 第1の言語で書かれた文の中の固有表現を所定の文字列に置き換えた置換文が入力された場合に、前記置換文を第2の言語に翻訳した文を出力するように、前記置換文を、中間表現である文脈ベクトルに変換するエンコーダと、前記文脈ベクトルを基に、前記第2の言語の単語及び前記所定の文字列のいずれかを再帰的に出力するデコーダと、前記文脈ベクトルに基づくアテンションスコアを基に、前記デコーダが出力した前記所定の文字列に対応する固有表現を特定するアテンション機構と、を備えたニューラルネットワークである文翻訳モデルの学習を行い、
    前記所定の文字列に置き換えられた固有表現が入力された場合に、前記アテンション機構によって特定された前記固有表現を前記第2の言語に翻訳した表現を出力するように、ニューラルネットワークである固有表現翻訳モデルの学習を行う
    処理をコンピュータが実行することを特徴とする学習方法。
JP2019067666A 2019-03-29 2019-03-29 翻訳方法、翻訳プログラム及び学習方法 Active JP7287062B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019067666A JP7287062B2 (ja) 2019-03-29 2019-03-29 翻訳方法、翻訳プログラム及び学習方法
US16/821,273 US11669695B2 (en) 2019-03-29 2020-03-17 Translation method, learning method, and non-transitory computer-readable storage medium for storing translation program to translate a named entity based on an attention score using neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019067666A JP7287062B2 (ja) 2019-03-29 2019-03-29 翻訳方法、翻訳プログラム及び学習方法

Publications (2)

Publication Number Publication Date
JP2020166672A JP2020166672A (ja) 2020-10-08
JP7287062B2 true JP7287062B2 (ja) 2023-06-06

Family

ID=72605923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019067666A Active JP7287062B2 (ja) 2019-03-29 2019-03-29 翻訳方法、翻訳プログラム及び学習方法

Country Status (2)

Country Link
US (1) US11669695B2 (ja)
JP (1) JP7287062B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210044003A (ko) * 2019-10-14 2021-04-22 삼성전자주식회사 단어 임베딩 방법 및 장치와 단어 검색 방법
CN112541365B (zh) * 2020-12-21 2024-05-10 语联网(武汉)信息技术有限公司 基于术语替换的机器翻译方法及装置
CN112766001A (zh) * 2021-01-14 2021-05-07 语联网(武汉)信息技术有限公司 企业名称翻译方法及装置
US11481202B2 (en) 2021-02-16 2022-10-25 X Development Llc Transformation templates to automate aspects of computer programming
JP2022141191A (ja) * 2021-03-15 2022-09-29 富士通株式会社 機械学習プログラム、機械学習方法および翻訳装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140163951A1 (en) 2012-12-07 2014-06-12 Xerox Corporation Hybrid adaptation of named entity recognition
JP2016099675A (ja) 2014-11-18 2016-05-30 日本電信電話株式会社 翻訳学習装置、翻訳装置、固有表現学習装置、方法、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1483687A4 (en) * 2002-03-11 2008-08-06 Univ Southern California TRANSLATION OF CALLED ENTITIES
JP2006338261A (ja) 2005-06-01 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> 翻訳装置、翻訳方法及び翻訳プログラム
US8131536B2 (en) * 2007-01-12 2012-03-06 Raytheon Bbn Technologies Corp. Extraction-empowered machine translation
JP2008225963A (ja) 2007-03-14 2008-09-25 National Institute Of Information & Communication Technology 機械翻訳装置、置換辞書生成装置、機械翻訳方法、置換辞書生成方法、及びプログラム
US8996355B2 (en) * 2013-02-08 2015-03-31 Machine Zone, Inc. Systems and methods for reviewing histories of text messages from multi-user multi-lingual communications
US20170308526A1 (en) 2016-04-21 2017-10-26 National Institute Of Information And Communications Technology Compcuter Implemented machine translation apparatus and machine translation method
JP2017199363A (ja) 2016-04-21 2017-11-02 国立研究開発法人情報通信研究機構 機械翻訳装置及び機械翻訳のためのコンピュータプログラム
US11593558B2 (en) * 2017-08-31 2023-02-28 Ebay Inc. Deep hybrid neural network for named entity recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140163951A1 (en) 2012-12-07 2014-06-12 Xerox Corporation Hybrid adaptation of named entity recognition
JP2016099675A (ja) 2014-11-18 2016-05-30 日本電信電話株式会社 翻訳学習装置、翻訳装置、固有表現学習装置、方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
鵜川新 他4名,固有表現情報を用いたニューラル機械翻訳,言語処理学会第24回年次大会 発表論文集[online],日本,言語処理学会,2018年03月05日,25-28頁

Also Published As

Publication number Publication date
US20200311352A1 (en) 2020-10-01
US11669695B2 (en) 2023-06-06
JP2020166672A (ja) 2020-10-08

Similar Documents

Publication Publication Date Title
JP7287062B2 (ja) 翻訳方法、翻訳プログラム及び学習方法
US8131536B2 (en) Extraction-empowered machine translation
CN108132932B (zh) 带有复制机制的神经机器翻译方法
JP7230576B2 (ja) 生成装置、学習装置、生成方法及びプログラム
Hasegawa-Johnson et al. Grapheme-to-phoneme transduction for cross-language ASR
WO2020170906A1 (ja) 生成装置、学習装置、生成方法及びプログラム
JP2018206262A (ja) 単語連接識別モデル学習装置、単語連接検出装置、方法、及びプログラム
Makarov et al. CLUZH at SIGMORPHON 2020 shared task on multilingual grapheme-to-phoneme conversion
Chennoufi et al. Impact of morphological analysis and a large training corpus on the performances of Arabic diacritization
WO2022079845A1 (ja) 単語対応装置、学習装置、単語対応方法、学習方法、及びプログラム
Almansor et al. Transferring informal text in arabic as low resource languages: State-of-the-art and future research directions
Mridha et al. Development of morphological rules for bangla words for universal networking language
WO2020250279A1 (ja) モデル学習装置、方法及びプログラム
JP5528376B2 (ja) 文書平易化装置およびプログラム
Alqahtani Full and partial diacritic restoration: Development and impact on downstream applications
US20180033425A1 (en) Evaluation device and evaluation method
Szymanski Morphological inference from Bitext for resource-poor languages
WO2023100291A1 (ja) 言語処理装置、言語処理方法、及びプログラム
Lyes et al. Building a pronunciation dictionary for the Kabyle language
Vijayanand et al. Named entity recognition and transliteration for Telugu language
Haberland et al. Kabyle ASR Phonological Error and Network Analysis
Zalmout Morphological Tagging and Disambiguation in Dialectal Arabic Using Deep Learning Architectures
Jain Transliteration Verification of English-Hindi Words using Machine Learning Approach
Rahim et al. Bangla Speech-To-Braille Interaction Device for Visual and Hearing Impaired
Liu Morphological Generation with Deep Learning Approaches

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7287062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150