JP6478382B2 - 翻訳装置 - Google Patents

翻訳装置 Download PDF

Info

Publication number
JP6478382B2
JP6478382B2 JP2014185934A JP2014185934A JP6478382B2 JP 6478382 B2 JP6478382 B2 JP 6478382B2 JP 2014185934 A JP2014185934 A JP 2014185934A JP 2014185934 A JP2014185934 A JP 2014185934A JP 6478382 B2 JP6478382 B2 JP 6478382B2
Authority
JP
Japan
Prior art keywords
translation
sentence
weight parameter
language
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014185934A
Other languages
English (en)
Other versions
JP2016058003A (ja
Inventor
功雄 後藤
功雄 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2014185934A priority Critical patent/JP6478382B2/ja
Publication of JP2016058003A publication Critical patent/JP2016058003A/ja
Application granted granted Critical
Publication of JP6478382B2 publication Critical patent/JP6478382B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明は、機械翻訳の技術を用いた翻訳装置に関する。
機械翻訳技術の一分野として、統計的機械翻訳の手法が注目されている。統計的機械翻訳のシステムでは、目的言語の翻訳候補文に関して、様々なモデル(翻訳モデルや目的言語の言語モデルなど)により計算した確率値を素性値として用い、それらの素性値にモデルごとの重み付けをして組み合わせたスコアを計算する。そして、算出されたスコアにより最も適した候補文を、翻訳文として決定する。
モデルごとの重み付けは、翻訳の精度を向上させるための重要な要素の一つである。
一般的に、事前にオフラインで開発データ(学習データ)を用いることによって、重みパラメーターを最適化する方法が知られている。非特許文献1には、オフラインで重みパラメーターを最適化するための代表的な手法であるMinimum Error Rate Trainingについて記載されている。
また、オフラインで重みパラメーターを最適化するのではなく、原言語による入力文が入力されてから重みパラメーターを最適化する手法も存在する。非特許文献2には、入力文の集合を用いて、重みパラメーターの最適化に用いるための開発データを選択する手法が記載されている。また、非特許文献3には、入力文ごとに重みパラメーターを最適化する手法が記載されている。
Franz Josef Och,"Minimum Error Rate Training in Statistical Machine Translation",In Proceedings of the 41st Annual Meeting of the Association for Computational Linguistics,pp.160-167,2003年. Masao Utiyama,Hirofumi Yamamoto,Eiichiro Sumita,"Two Methods for stabilizing MERT : NICT at IWSLT 2009",In Proceedings of the International Workshop on Spoken Language Translation,pp.79-82,2009年 Lemao Liu,Hailong Cao,Taro Watanabe,Tiejun Zhao,Mo Yu,Conghui Zhu,"Locally Training the Log-Linear Model for SMT",In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning,pp.402-411,2012年
統計的機械翻訳の手法において用いられるモデルのうちの一つは、目的言語における言語モデルである。この言語モデルは、目的言語における表現の自然さを評価するものである。具体的には、言語モデルが出力する数値としては、目的言語による文における、所定の表現の統計的な生成確率が用いられる。また、上記の表現としては、言語要素のn連鎖(nグラム)が用いられることが多い。言い換えれば、言語モデルに基づく素性値自体は、入力される原言語の文の意味との一致の度合いを反映しない。極端な場合には、入力される原言語の文と全く違う意味の目的言語による文が、言語モデルによって高く評価される場合もある。例えば、文における主語と目的語が入力文と出力文で逆になれば意味が全く変わってしまうが、目的言語における言語モデルを構築するためのコーパスに依存して、特定の主語と目的語の組み合わせの生成確率が正解訳の生成確率よりも高くなる場合もある。
具体例として、英語のコーパス中に「John killed」および「killed Mary」という2−グラム(bigram)の頻度が高く、そして「Mary killed」および「killed John」という2−グラムの頻度が低い場合、「John」と「Mary」に関する非対称性が生じる。つまり、そのようなコーパスに基づいて英語の言語モデルを構築した場合、「John killed Mary」という表現の生成確率は、「Mary killed John」という表現のそれよりも高くなる。このような事態は、例えば、その英語コーパスが報道文に基づいたものであった場合などに起こり得る。目的言語(英語)の言語モデルが上記のような状況になると、例えば、日本語による入力文が「メアリーがジョンを殺した」というものであった場合には、言語モデルの重み次第では「John killed Mary」が翻訳文として出力されてしまうことも起こり得る。これは、目的言語による言語モデルに基づく素性値として相対的に、「John killed Mary」のスコアが高く、「Mary killed John」のスコアが低くなるためである。つまり、このために誤訳が生じる可能性がある。
本発明は、上記のような事情に鑑みて為されたものであり、目的言語の言語モデルを原因とする誤訳を起こりにくくする翻訳装置を提供するものである。
上記の課題を解決するため、本発明の一態様による翻訳装置は、原言語による入力文を取得する入力文取得部と、前記入力文の語順を変更することによって前記入力文に対応する並べ替え文を生成する語順変更部と、前記原言語に関する統計情報に基づき、前記入力文の生成確率および前記並べ替え文の生成確率を求める生成確率計算部と、目的言語に関する統計情報である目的言語用言語モデルと、前記目的言語用言語モデル以外の翻訳処理用の各種モデルを記憶する翻訳用モデル記憶部と、前記目的言語用言語モデルに関する重みパラメーターと、前記目的言語用言語モデル以外の翻訳処理用の各種モデルに関する重みパラメーターとを記憶する重みパラメーター記憶部と、前記入力文の生成確率よりも前記並べ替え文の生成確率のほうが大きいほど前記目的言語用言語モデルが翻訳結果に与える影響を軽減するよう、前記重みパラメーター記憶部に記憶されている前記重みパラメーターの値を変更する重みパラメーター変更部と、前記重みパラメーター変更部によって変更された前記重みパラメーターの値を用いた重み付けを行いながら、且つ前記翻訳用モデル記憶部から読み出した前記目的言語用言語モデルと前記翻訳処理用の各種モデルとに基づいて、前記入力文の翻訳処理を行う翻訳デコーダー部と、を具備することを特徴とする。
また、本発明の一態様は、上記の翻訳装置において、前記重みパラメーター変更部は、前記入力文の生成確率よりも前記並べ替え文の生成確率のほうが大きい場合に、前記入力文の生成確率と前記並べ替え文の生成確率との比に応じて前記目的言語用言語モデルが翻訳結果に与える影響を軽減するよう前記重みパラメーターの値を変更する、ことを特徴とするものである。
本発明によれば、翻訳精度を向上させることができる。特に、原言語による入力文の生成確率よりも、当該入力文の語順を変更して得られる並べ替え文の生成確率のほうが大きい場合の誤訳を軽減することができる。
本発明の実施形態による本実施形態による翻訳装置の概略機能構成を示すブロック図である。 同実施形態において用いる言語モデルのデータ構成を示す概略図である。 同実施形態において用いる翻訳モデルのデータ構成を示す概略図である。 同実施形態による第1重みパラメーター記憶部および第2重みパラメーター記憶部が保持するデータ(重みパラメーター値の集合)の構成を示す概略図である。 同実施形態による翻訳装置の全体的な動作手順を示したフローチャートである。
次に、図面を参照しながら、本発明の一実施形態について説明する。
図1は、本実施形態による翻訳装置の概略機能構成を示すブロック図である。図示するように、翻訳装置1は、入力文取得部11と、語順変更部12と、言語モデル記憶部14と、生成確率計算部15と、第1重みパラメーター記憶部21と、第2重みパラメーター記憶部22と、翻訳用モデル記憶部23と、重みパラメーター変更部24と、翻訳デコーダー部31と、出力部32と、を含んで構成される。翻訳装置1は、翻訳前の言語(以下において、原言語(source language)と言う)によって書かれた文を読み込み、その文の翻訳処理を行い、翻訳語の言語(以下において、目的言語(target language)と言う)による文を出力する。
入力文取得部11は、原言語による入力文をテキストデータとして取得する。入力文取得部11は、取得した文のデータを、語順変更部12と、生成確率計算部15と、翻訳デコーダー部31とに供給する。
語順変更部12は、上記の入力文の語順を変更することによってその入力文に対応する並べ替え文を生成する。より具体的には、語順変更部12は、入力文取得部11から渡された各文について、その語順を並べ替えて得られる文(以下において、「並べ替え文」と言うことがある)を0文以上生成し、出力する。語順変更部12によって出力される文は、元の文と同じ単語集合から成る。語順変更部12によって出力される文は、語順の変更により、元の文とは意味が異なるようにする。
なお、語順変更部12は、単にランダムに語を並べ替えるのではなく、例えば主語と目的語とを入れ替えるなどの処理により、構文として成立する文を出力する。そのための手段として、語順変更部12は、その内部の処理において、入力文取得部11から渡された文についての構文解析処理や格解析処理などを行うことが望ましい。語順変更部12が出力する並べ替え文の数が0のこともあり得る。例えば、入力された文が1つの単語のみから成る場合には、並べ替え文の数は0である。
言語モデル記憶部14は、原言語の言語モデル(原言語用言語モデル,原言語に関する統計情報)を記憶する。ここで、言語モデルの一例は、原言語におけるnグラム(単語のnグラムや、文字のnグラムなど、自然言語における要素のn個の連鎖)とその生成確率のデータの集合である。原言語の言語モデルは、コーパスなどを解析することにより予め得て、言語モデル記憶部14に書き込んでおくようにする。
生成確率計算部15は、原言語に関する統計情報(言語モデル)に基づき、入力文の生成確率および並べ替え文の生成確率を求める。より具体的には、生成確率計算部15は、言語モデル記憶部14を参照することにより、入力文取得部11から渡される入力文の生成確率と、語順変更部12から出力される並べ替え文の各々の生成確率とを計算する。生成確率計算部15は、既存技術の手法により、各文に含まれるnグラムの生成確率を言語モデル記憶部14から読み出し、それらnグラムの生成確率を基に、文の生成確率を求める。なお、独立事象AとBが共に起こる確率は、事象Aが起こる確率(A)と事象Bが起こる確率P(B)の積として計算される。また、事象Aを前提として事象Bが起こる条件付き確率がP(B|A)のとき、事象Aと事象Bの連鎖が起こる確率はP(A)とP(B|A)の積として計算される。
第1重みパラメーター記憶部21および第2重みパラメーター記憶部22(これらを総称して、単に「重みパラメーター記憶部」と呼ぶ場合がある)は、各種モデルによって求められたそれぞれの素性値の重み付けを表す重みパラメーターを記憶する。
第1重みパラメーター記憶部21は、目的言語の言語モデルに関する重みパラメーターを記憶する。
第2重みパラメーター記憶部22は、第1重みパラメーター記憶部21に記憶されている目的言語の言語モデルに関する重みパラメーター以外の、すべての重みパラメーターを記憶する。
第1重みパラメーター記憶部21および第2重みパラメーター記憶部22に記憶されている重みパラメーターは、翻訳デコーダー部31が翻訳文候補についてのスコアを計算する際に用いられる重み値である。これらの重みパラメーターは、翻訳デコーダー部31が、それぞれの翻訳用モデルをどのような比率で重み付けて総合的なスコアを算出するかを決定づけるための値である。これらの重みパラメーターを用いたスコアの算出のしかたについては、後で数式を示しながら詳述する。
なお、第1重みパラメーター記憶部21および第2重みパラメーター記憶部22は、既存技術の手法等により、予め最適化された重みパラメーターの値を記憶している。言い換えれば、これらの重みパラメーターは、例えば教師データを用いた学習処理により、予め最適化されている。
翻訳用モデル記憶部23は、統計的機械翻訳の技術で用いられる各種のモデルを記憶する。より具体的には、翻訳用モデル記憶部23は、目的言語に関する統計情報である目的言語用言語モデルと、その他の(即ち、前記の目的言語用言語モデル以外の)翻訳処理用の各種モデルを記憶する。翻訳用モデル記憶部23が記憶するモデルは、いかなるモデルであっても良いが、典型的なモデルの例について、次に列挙して説明する。なお、ここで説明する各種モデル自体は、既存技術によるものである。
(1)言語モデル: ここで、翻訳用モデル記憶部23が記憶するのは、目的言語に関する言語モデル(目的言語用言語モデル)である。この言語モデルは、目的言語の言語らしさを表す統計値の集合から構成される。具体的には、例えば、この言語モデルは、目的言語におけるnグラムと、そのnグラムの出現確率とを対応付けたデータの集合である。nグラムは、文字のnグラムであっても良く、単語のnグラムであっても良く、その他の言語要素のnグラムであっても良い。なお、nグラムの出現確率は、コーパス等に基づいて統計的な処理を行うことにより、予め計算しておく。なお、目的言語用言語モデルの基となるコーパスと原言語用言語モデルの基となるコーパスとが、直接対応付いているわけではない。つまり、目的言語のコーパスと原言語のコーパスに必ずしも対訳の文が含まれているわけではない。しかし、対訳ではない2言語のコーパスすなわち原言語のデータおよび目的言語のデータでも、例えば事件報道の文など、共通の事実に基づき一致する内容の文が含まれる場合がある。
(2)翻訳モデル: 翻訳モデルは、原言語による表現と目的言語による表現との間の意味的等価性を数値的に表すためのデータの集合である。例えば、翻訳モデルは、原言語による文に現れるフレーズと、目的言語によるフレーズと、それらの両フレーズが対応づく度合いを表す統計的数値とによって構成される。ここで、フレーズとは数単語の長さを有する単語列である。言い換えれば、原言語によるフレーズと目的言語によるフレーズとの対は、対訳データである。統計的機械翻訳の技術においては、大量の対訳文の集合に基づいて、この対訳データを予め収集しておく。つまり、翻訳モデルは、原言語と目的言語との間における、フレーズ単位の辞書のデータであり、且つ、その対応関係の確率に関する数値データを伴っているものである。この翻訳モデルを用いることにより、原言語による入力文に含まれる全単語をカバーするような、目的言語における単語の列が、目的言語による翻訳文候補として生成され得る。このような翻訳文候補は、翻訳モデルを参照しながら機械的な手順により生成可能である。また、ある入力文に対して、通常は複数の翻訳文候補が生成され得る。
なお、翻訳モデルにおける原言語および目的言語の対訳として、表層の単語列の対を用いる代わりに、各言語における構文解析木の部分木を用いるようにしても良い。
(3)リオーダリングモデル: このモデルは、単語の順序の並べ替えに関するモデルである。リオーダリングモデルは、翻訳の前後での語順の変化に対して、確率値を与えるものである。具体的には、リオーダリングモデルは、目的言語側の表現において、隣接するフレーズの対についてのローカルな順序の評価に関する数値を備えるものである。
重みパラメーター変更部24は、入力文の生成確率よりも前記並べ替え文の生成確率のほうが大きいほど目的言語用言語モデルが翻訳結果に与える影響を軽減するよう、重みパラメーター記憶部に記憶されている重みパラメーターの値を変更する。具体的には、重みパラメーター変更部24は、生成確率計算部15によって計算された入力文の生成確率と、当該入力文に対応する並べ替え文の生成確率とに基づき、第1重みパラメーター記憶部21から読み出した重みパラメーターの値を変更する場合がある。なお、既に述べたとおり、第1重みパラメーター記憶部21から読み出した重みパラメーターは、目的言語における言語モデルを素性として用いる場合の重みを表す。
具体的には、元々の入力文の生成確率が意味の異なる並べ替え文の生成確率の最大値よりも高い場合には、重みパラメーター変更部24は、第1重みパラメーター記憶部21から読み出した第1パラメーターの値を減少させない。また、この場合に、重みパラメーター変更部24が、第1パラメーターの値を増加させるようにしても良い。
一方で、元々の入力文の生成確率が意味の異なる並べ替え文の生成確率の最大値よりも低い場合には、重みパラメーター変更部24は、第1重みパラメーター記憶部21から読み出した第1パラメーターの値を減少させる。
重みパラメーター変更部24は、算出された入力文の生成確率と、算出された並べ替え文の生成確率の最大値とに基づいて、第1重みパラメーターを変更する。一例としては、算出された入力文の生成確率と、算出された並べ替え文の生成確率の最大値との比を乗じることにより、第1パラメーターの値を変更する。これを数式で表すと、下の式(1)の通りである。
Figure 0006478382
式(1)において、wnewは、重みパラメーター変更部24によって変更された後の重みパラメーターである。また、worgは、重みパラメーター変更部24によって変更される前の重みパラメーターである。また、porgは、生成確率計算部15によって計算された、入力文の生成確率である。また、preorderは、生成確率計算部15によって計算された並べ替え文の生成確率であり、入力文に対応する並べ替え文のうち最も生成確率の高いものである。
なお、式(1)に示した方法以外によって重みパラメーター変更部24が重みパラメーターを更新するようにしても良い。重みパラメーター変更部24は、式(1)による場合にも他の式等による場合にも、入力文の生成確率と比べて並べ替え文の生成確率が相対的に大きい度合が高いほど、目的言語の言語モデルによる素性が翻訳結果に与える影響の重みが小さくなるようにする。ここでは、第1重みパラメーターは正の値であり、且つ第1重みパラメーターの値が大きいほど、目的言語の言語モデルが翻訳結果に与える影響の度合いが大きい。よって、重みパラメーター変更部24は、入力文の生成確率と比べて並べ替え文の生成確率が相対的に大きい度合が高いほど、第1重みパラメーターの値が小さくなるようにする。
重みパラメーター変更部24は、上記の結果の重みパラメーターを、翻訳デコーダー部31に供給する。つまり、翻訳デコーダー部31は、第1重みパラメーター記憶部21から第1パラメーターの値を読み出してそのまま用いるのではなく、重みパラメーター変更部24によって変更された第1パラメーターの値を用いた処理を行うこととなる。
翻訳デコーダー部31は、重みパラメーター変更部24によって変更された重みパラメーターの値を用いた重み付けを行いながら、且つ翻訳用モデル記憶部23から読み出した目的言語用言語モデルと翻訳処理用の各種モデルとに基づいて、入力文の翻訳処理を行う。具体的には、翻訳デコーダー部31は、翻訳対象の入力文に、翻訳用モデル記憶部23から読み出した翻訳モデルを適用し、目的言語の文(翻訳文)の候補を複数生成する。また、翻訳デコーダー部31は、翻訳用モデル記憶部23から、翻訳処理に用いるモデルの情報を読出し、翻訳対象の入力文と、その翻訳文の候補について、各モデルに関する素性値を計算する。また、翻訳デコーダー部31は、算出された各モデルの素性値に、重みパラメーター変更部24から供給される重みパラメーターとおよび第2重みパラメーター記憶部22から読み出した重みパラメーターとを適用し、翻訳文候補についてのスコアを計算する。既に述べたように、重みパラメーター変更部24から供給されるのは目的言語における言語モデルについての重みパラメーターである。また、第2重みパラメーター記憶部22に記憶されているのは、目的言語における言語モデル以外の各種モデルに適用するための重みパラメーターである。翻訳デコーダー部31が計算するスコアは、下の式(2)で表されるものである。
Figure 0006478382
式(2)において、iは、目的言語の候補の文(翻訳文候補)の指標値である。iは1以上の整数である。また、Starget,iは、i番目の翻訳文候補である。また、Sinputは、原言語による入力文である。また、jは、翻訳用のモデルを用いた素性値の指標値である。jは整数であり、1≦j≦Nである。ここで、Nは、用いる素性値の種類の総数である。また、p(Sinput,Starget,i)が、入力文Sinputと翻訳候補文Starget,iとの組み合わせに対するj番目の素性値である。また、wは、j番目の素性値に対応する重みパラメーターの値である。特にj=1は、目的言語の言語モデルによる素性値に対応する。wは、目的言語の言語モデルに関する重みパラメーターである。wは、第1重みパラメーター記憶部21に記憶されていた値を、適宜、重みパラメーター変更部24が変更して得られたものである。2以上のjは、目的言語の言語モデル以外のモデルに関する素性値に対応する。w,w,・・・,wは、目的言語の言語モデル以外の素性値に適用する重みパラメーター値である。
そして、scoreが、翻訳文候補Starget,iに対するスコアである。
そして、翻訳デコーダー部31は、最もスコアの高い翻訳文候補を、入力文に対する翻訳文として確定する。
出力部32は、翻訳デコーダー部31によって求められた翻訳文を、外部に出力する。
次に、本実施形態で使用する主要なデータの構成について説明する。
図2は、言語モデルのデータ構成を示す概略図である。原言語の言語モデルは、言語モデル記憶部14に格納されている。また、目的言語の言語モデルは、翻訳用モデルの一部として、翻訳用モデル記憶部23に格納されている。図示するように、言語モデルは、nグラムとその生成確率とを対応付けた構造を有するデータである。すなわち、言語モデルは、単語や文字等の言語要素のn個の連鎖とその生成確率とを対応付けた構造を有するデータである。一例として、言語モデルは、図示するような表形式のデータとして記憶装置に保持される。同図中のデータ例は、対象の言語(原言語または目的言語)が英語である場合の例である。データ例の第1行目は「go−to−the」という3単語連鎖と、その生成確率を示す。この生成確率は、「go−to」という2単語連鎖を前提とする場合に単語「the」を生成する条件付き確率であり、その値は0.2である。また、データ例の第2行目は、「go−to−school」という3単語連鎖と、その生成確率を示す。この生成確率は、「go−to」という2単語連鎖を前提とする場合に単語「school」を生成する条件付き確率であり、その値は0.05である。
図3は、翻訳モデルのデータ構成を示す概略図である。図示するように、翻訳モデルは、表形式のデータとして構成されており、表現(原言語)と、表現(目的言語)と、確率の各項目を有する。この表の各行がレコードであり、ひとつのレコードは、原言語によるある表現と、その表現に対応する目的言語による表現と、それら両者が対応し合う確率値との3項を関連付けて保持している。同図中のデータ例は、原言語が日本語で、目的言語が英語である場合の例である。データ例の第1行目は「へ−行く」という原言語での表現と、「go−to」という目的言語での表現と、その確率を示す。この確率は、原言語表現「へ−行く」を前提とする場合に目的言語表現「go−to」が対応する確率であり、その値は0.5である。また、データ例の第2行目は、「へ−行く」という原言語での表現と、「goes−to」という目的言語での表現と、その確率を示す。この確率は、原言語表現「へ−行く」を前提とする場合に目的言語表現「goes−to」が対応する確率であり、その値は0.3である。
図4は、第1重みパラメーター記憶部21および第2重みパラメーター記憶部22が保持するデータの構成を示す概略図である。図示するように、第1重みパラメーター記憶部21および第2重みパラメーター記憶部22は、翻訳候補に関するスコアを計算する際に用いられる重みパラメーターの値を記憶する。第1重みパラメーター記憶部21は、目的言語の言語モデル用重みパラメーターの値を記憶する。第2重みパラメーター記憶部22は、目的言語の言語モデル用重みパラメーター以外の、すべての各種重みパラメーターの値を記憶する。第2重みパラメーター記憶部22が記憶する重みパラメーターとしては、例えば、翻訳モデル用重みパラメーターや、リオーダリングモデル用重みパラメーターを含む。これらの、第1重みパラメーター記憶部21および第2重みパラメーター記憶部22に記憶されている重みパラメーターは、式(2)におけるw(j=1,2,・・・,N)である。同図に示す例では、目的言語の言語モデル用の重みパラメーターの値は0.3である。また、翻訳モデル用の重みパラメーターの値は0.2である。また、リオーダリングモデル用の重みパラメーターの値は0.2である。
なお、前述のとおり、第1重みパラメーター記憶部21に記憶されている目的言語の言語モデル用重みパラメーターについては、そのままの値として使われるのではなく、重みパラメーター変更部24によって変更された値が翻訳デコーダー部31によって使われる。
次に、フローチャートを参照しながら、翻訳装置の動作手順について説明する。
図5は、翻訳装置1の動作手順を示したフローチャートである。以下、このフローチャートが示す流れに沿って説明する。
ステップS11:入力文取得部11は、未処理の入力文が残っているか否かを調べる。入力文がある場合には次のステップS12に進み、未処理の入力文が残っていない場合には本フローチャート全体の処理を終了する。
ステップS12:入力文取得部11は、次の入力文を取得する。入力文取得部11は、取得した入力文を、語順変更部12と、生成確率計算部15と、翻訳デコーダー部31とに供給する。
ステップS13:語順変更部12は、入力文取得部11によって供給された入力文について、語順を変更することによって、文として成立する並べ替え文を作成する。語順変更部12が作成する並べ替え文の数は、0以上である。語順変更部12は、生成した並べ替え文のデータをすべて生成確率計算部15に供給する。
ステップS14:生成確率計算部15は、入力文取得部11によって供給される入力文の生成確率を計算する。また、生成確率計算部15は、語順変更部12によって供給される並べ替え文のそれぞれの生成確率を計算する。生成確率計算部15は、入力文および並べ替え文の生成確率を計算する際に、言語モデル記憶部14を参照する。つまり、生成確率計算部15は、言語モデル記憶部14から原言語の言語モデルを読出し、この言語モデルに基づいて、入力文および並べ替え文の生成確率を計算する。生成確率計算部15は、各文について計算した生成確率の値を、それらの文とそれぞれ関連付ける形で、重みパラメーター変更部24に供給する。
ステップS15:重みパラメーター変更部24は、生成確率計算部15によって計算された各々の文の生成確率に基づいて、適宜、第1重みパラメーターを変更する処理を行う。具体的には、重みパラメーター変更部24は、現在の入力文に対応するすべての並べ替え文の生成確率の中から、最大の値の生成確率を選択する(便宜上、「最大生成確率」を呼ぶ)。そして、重みパラメーター変更部24は、入力文の生成確率と、この最大生成確率とに基づいて、第1重みパラメーターを変更するか否かを決定する。重みパラメーター変更部24は、第1重みパラメーターを変更する場合には、第1パラメーター記憶部から読み出した重みパラメーターの値と、入力文の生成確率と、前記の最大生成確率とに基づき、変更後の重みパラメーターの値を求める。なお、変更後の重みパラメーターの求め方については、既に述べた通りである。
ステップS16:翻訳デコーダー部31は、入力文取得部11から受け取った入力文に基づき、この入力文に対応する翻訳文の候補を生成する。具体的には、翻訳デコーダー部31は、翻訳用モデル記憶部23から、同部に記憶されているモデルの一つである翻訳モデルを読出し、数単語の対訳フレーズを入力文にマッチングさせることにより、翻訳文候補を生成していく。通常の場合、翻訳デコーダー部31は、一つの入力文に対して複数の翻訳文候補を生成する。
ステップS17:翻訳デコーダー部31は、翻訳用モデル記憶部23に記憶されている各種のモデルを読出し、入力文取得部11から渡された入力文とステップS16において生成した翻訳文候補との組み合わせの各々に対して、スコアを算出する。また、翻訳デコーダー部31は、上記のスコアを算出する際に、重みパラメーター変更部24から渡される第1重みパラメーター(目的言語の言語モデルに対する重み)と、第2重みパラメーター記憶部22から読み出した第2パラメーター(その他のすべての重み)とを適用する。スコアの具体的な計算方法は、既に説明し、また式(2)で例示した通りである。
なお、上記の第1重みパラメーターは、既に述べたように、第1重みパラメーター記憶部21から読み出され、必要に応じて重みパラメーター変更部24によって変更された値である。
ステップS18:翻訳デコーダー部31は、ステップS17で算出した各翻訳候補文に対するスコアに基づき、最尤翻訳文を決定する。通常は、翻訳デコーダー部31は、最もスコアの高い翻訳文候補を、最尤翻訳文として決定する。そして、出力部32は、決定された最尤翻訳文を出力する。このステップの処理の後は、翻訳装置1は、ステップS11に制御を戻し、さらなる入力文(ある場合)の翻訳処理を行う。
本実施形態によれば、上述した構成および処理手順により、次のような作用、効果が得られる。
重みパラメーター変更部24は、目的言語の言語モデルにより計算した素性値に対する重みを、入力文の生成確率と、並べ替え文の生成確率との関係に応じて変更する。即ち、入力文の生成確率が、当該入力文の語順を並べ替えて得られるいかなる並べ替え文の生成確率よりも高い場合には、目的言語の言語モデル用の予め最適化されている重みパラメーターの値を変更しない。また、入力文の生成確率が、当該入力文の語順を並べ替えて得られる並べ替え文の生成確率よりも低い場合は、翻訳候補文について、目的言語の言語モデルによる素性値を重視しないほうが好ましい翻訳結果が得られる。なぜなら、対訳ではない2言語のコーパスすなわち原言語のデータおよび目的言語のデータでも、事実に基づいた報道など内容が一致する文が含まれていることが期待されるからである。そのため、重みパラメーター変更部24は、目的言語用言語モデルが翻訳結果に与える影響を軽減するよう、目的言語の言語モデルに関する重みパラメーターの値を低くする。一例として、重みパラメーター変更部24は、入力文の生成確率と並べ替え文(例えば、生成確率が最大であるような並べ替え文)の生成確率との比を乗じる形で、目的言語の言語モデルに関する重みパラメーターの値を低くする。これにより、誤った翻訳結果が出力する可能性が低くなり、結果として翻訳精度が向上する。
言い換えれば、例えば、正しい翻訳文の生成確率よりも、主語と目的語が入れ替わった形の文の生成確率のほうが高いとき、目的言語の言語モデルから計算したスコアとしては、誤訳のスコアのほうが正解のスコアよりも高くなる。このような場合は目的言語の言語モデルから計算したスコアに対する重みを小さくすることで、その影響を小さくすることができる。具体的には、重みパラメーター変更部24が、目的言語の言語モデルから計算したスコアに対する重みを小さくする。正しい訳の生成確率より、正しい訳から主語と目的語が入れ替わるなど語順の誤りにより意味が正しくない翻訳候補の生成確率が高いときは、原言語においても、同様の傾向があることが期待されるためである。すなわち、入力文の生成確率より、入力文の語順を並べ替えることで意味が異なるようにした文の生成確率の方が高いことが予想されるためである。つまり、このような本実施形態の構成により、翻訳精度が向上する。
従来技術においては、目的言語における言語モデルの重みを変える手法は取られていなかった。特に、入力文の語順を変化させたときの文の生成確率の変化の度合いに基づいて目的言語における言語モデルの重みを変える手法は取られていなかった。つまり、本実施形態による翻訳装置は、従来技術の構成では得られない、特有の効果を奏する。
なお、上述した実施形態における翻訳装置の機能の一部または全部をコンピューターで実現するようにしても良い。その場合、機能を実現するためのプログラムをコンピューター読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピューターシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピューターシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、実施形態を説明したが、本発明はさらに次のような変形例でも実施することが可能である。また、組み合わせ可能な場合に、複数の変形例を組み合わせて実施しても良い。
[変形例1]
上記の実施形態では、翻訳候補文のスコアを、各種モデルを用いて求められた素性値の重み付線形和として計算したが、各素性値を用いたその他の計算方法で翻訳候補文のスコアを計算するようにしても良い。
[変形例2]
上記の実施形態では、翻訳候補文のスコアの数値が高いほうがより良好な(より正解であると考えられる)翻訳候補文である場合を記載したが、スコアの数値の低いほうがより良好な翻訳候補文であるように、スコアの計算方法を決めても良い。また、スコアの値自体は正負のいずれであっても良い。また、上記の実施形態ではモデルの重みパラメーターの値がより大きい場合に、そのモデルがより重視される方向に作用するような計算方法としていたが、モデルの重みパラメーターの値の大小に関して、逆でも良い。
[変形例3]
上記の実施形態では、目的言語の言語モデルの影響を小さくするために、目的言語の言語モデルに関する重みパラメーターの値を小さくするようにした。しかし、逆に、目的言語の言語モデル以外のモデルに関する重みパラメーターの値を大きくすることによって目的言語の言語モデルの影響が小さくなるようにしても良い。重みパラメーターの値自体は他の重みパラメーターとの間の相対的な関係において意味があるものである。
[変形例4]
上記の実施形態では、言語要素(文字や単語等)のnグラムの出現頻度に基づいて言語モデルを構築することとした。しかし、その他の形態で、表現の現れやすさを統計的に数値化したものを言語モデルとしても良い。一例として、文を構文解析した結果の部分木とその出現頻度に基づく言語モデルを用いても良い。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、自然言語の翻訳を要する産業に広く利用することができる。一例としては、放送や通信の手段を用いて、あるいは紙の媒体により、コンテンツを提供する事業に利用することができる。
1 翻訳装置
11 入力文取得部
12 語順変更部
14 言語モデル記憶部
15 生成確率計算部
21 第1重みパラメーター記憶部(重みパラメーター記憶部)
22 第2重みパラメーター記憶部(重みパラメーター記憶部)
23 翻訳用モデル記憶部
24 重みパラメーター変更部
31 翻訳デコーダー部
32 出力部

Claims (2)

  1. 原言語による入力文を取得する入力文取得部と、
    前記入力文の主語と目的語とを入れ替える処理により語順を変更することによって前記入力文に対応する並べ替え文を生成する語順変更部と、
    前記原言語に関する統計情報に基づき、前記入力文の生成確率および前記並べ替え文の生成確率を求める生成確率計算部と、
    目的言語に関する統計情報である目的言語用言語モデルと、前記目的言語用言語モデル以外の翻訳処理用の各種モデルを記憶する翻訳用モデル記憶部と、
    前記目的言語用言語モデルに関する重みパラメーターと、前記目的言語用言語モデル以外の翻訳処理用の各種モデルに関する重みパラメーターとを記憶する重みパラメーター記憶部と、
    前記入力文の生成確率よりも前記並べ替え文の生成確率のほうが大きいほど前記目的言語用言語モデルが翻訳結果に与える影響を軽減するよう、前記重みパラメーター記憶部に記憶されている前記重みパラメーターの値を変更する重みパラメーター変更部と、
    前記重みパラメーター変更部によって変更された前記重みパラメーターの値を用いた重み付けを行いながら、且つ前記翻訳用モデル記憶部から読み出した前記目的言語用言語モデルと前記翻訳処理用の各種モデルとに基づいて、前記入力文の翻訳処理を行う翻訳デコーダー部と、
    を具備することを特徴とする翻訳装置。
  2. 前記重みパラメーター変更部は、前記入力文の生成確率よりも前記並べ替え文の生成確率のほうが大きい場合に、前記入力文の生成確率と前記並べ替え文の生成確率との比に応じて前記目的言語用言語モデルが翻訳結果に与える影響を軽減するよう前記重みパラメーターの値を変更する、
    ことを特徴とする請求項1に記載の翻訳装置。
JP2014185934A 2014-09-12 2014-09-12 翻訳装置 Active JP6478382B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014185934A JP6478382B2 (ja) 2014-09-12 2014-09-12 翻訳装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014185934A JP6478382B2 (ja) 2014-09-12 2014-09-12 翻訳装置

Publications (2)

Publication Number Publication Date
JP2016058003A JP2016058003A (ja) 2016-04-21
JP6478382B2 true JP6478382B2 (ja) 2019-03-06

Family

ID=55758737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014185934A Active JP6478382B2 (ja) 2014-09-12 2014-09-12 翻訳装置

Country Status (1)

Country Link
JP (1) JP6478382B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102424540B1 (ko) * 2017-10-16 2022-07-25 삼성전자주식회사 문장 생성 모델의 업데이트 방법 및 문장 생성 장치
CN109960814B (zh) * 2019-03-25 2023-09-29 北京金山数字娱乐科技有限公司 模型参数搜索方法以及装置
CN110502746B (zh) * 2019-07-18 2021-04-09 北京捷通华声科技股份有限公司 一种在线域更新解码方法、装置、电子设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006338261A (ja) * 2005-06-01 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> 翻訳装置、翻訳方法及び翻訳プログラム
JP2007317000A (ja) * 2006-05-26 2007-12-06 Nippon Telegr & Teleph Corp <Ntt> 機械翻訳装置、その方法およびプログラム
US8977537B2 (en) * 2011-06-24 2015-03-10 Microsoft Technology Licensing, Llc Hierarchical models for language modeling

Also Published As

Publication number Publication date
JP2016058003A (ja) 2016-04-21

Similar Documents

Publication Publication Date Title
US10769387B2 (en) System and method for translating chat messages
US7797148B2 (en) Systems and methods for fast and memory efficient machine translation using statistical integrated phase lattice
KR20220027198A (ko) 자연어 이해(nlu) 프레임워크에서 검색 키들 및 검색 공간들의 확장을 위한 아티팩트들의 피닝
US10789431B2 (en) Method and system of translating a source sentence in a first language into a target sentence in a second language
JP4852448B2 (ja) 誤り傾向学習音声認識装置及びコンピュータプログラム
US20140163951A1 (en) Hybrid adaptation of named entity recognition
JP2009140503A (ja) 音声翻訳方法及び装置
JP6817556B2 (ja) 類似文生成方法、類似文生成プログラム、類似文生成装置及び類似文生成システム
US20220058349A1 (en) Data processing method, device, and storage medium
Yuan Grammatical error correction in non-native English
JP6478382B2 (ja) 翻訳装置
Toral et al. Linguistically-augmented perplexity-based data selection for language models
Filimonov et al. A joint language model with fine-grain syntactic tags
Cuong et al. A survey of domain adaptation for statistical machine translation
JP2017129995A (ja) 前処理モデル学習装置、方法、及びプログラム
CN110222181B (zh) 一种基于Python的影评情感分析方法
Formiga Fanals et al. Dealing with input noise in statistical machine translation
JP5710551B2 (ja) 機械翻訳結果評価装置、翻訳パラメータ最適化装置、方法、及びプログラム
JP6564709B2 (ja) 文書き換え装置、方法、及びプログラム
JP5734917B2 (ja) 並べ替えモデル学習装置、方法、及びプログラム、並びに翻訳装置、方法、及びプログラム
Van Niekerk Exploring unsupervised word segmentation for machine translation in the South African context
US9311302B2 (en) Method, system and medium for character conversion between different regional versions of a language especially between simplified chinese and traditional chinese
Cate et al. Bidirectional american sign language to english translation
CN113822053A (zh) 一种语法错误检测方法、装置、电子设备及存储介质
JP2010170303A (ja) 機械翻訳装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180815

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190204

R150 Certificate of patent or registration of utility model

Ref document number: 6478382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250