JP5067777B2 - 翻訳装置、クラスタ生成装置、クラスタの製造方法、およびプログラム - Google Patents

翻訳装置、クラスタ生成装置、クラスタの製造方法、およびプログラム Download PDF

Info

Publication number
JP5067777B2
JP5067777B2 JP2006237639A JP2006237639A JP5067777B2 JP 5067777 B2 JP5067777 B2 JP 5067777B2 JP 2006237639 A JP2006237639 A JP 2006237639A JP 2006237639 A JP2006237639 A JP 2006237639A JP 5067777 B2 JP5067777 B2 JP 5067777B2
Authority
JP
Japan
Prior art keywords
sentence
unit
language model
translation
entropy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006237639A
Other languages
English (en)
Other versions
JP2008059440A (ja
Inventor
博史 山本
英一郎 隅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2006237639A priority Critical patent/JP5067777B2/ja
Publication of JP2008059440A publication Critical patent/JP2008059440A/ja
Application granted granted Critical
Publication of JP5067777B2 publication Critical patent/JP5067777B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Description

本発明は、自然言語の翻訳を行う翻訳装置等に関するものである。
近年、N−gramに代表される統計言語モデルは統計翻訳をはじめとする言語処理において広く用いられている。統計言語モデルはその性格上、学習データと異なるタスクに対しては性能が劣化してしまう。
また、「タスク適応」という考え方がある。「タスク適応」は、特定のタスクに特化したモデルであるタスク依存モデルを作成することが目的である。ここで、タスクとは、例えば、所定の話題や、分類するための指標(例えば、旅行の会話集など)などである。
また、対象のタスクが既知である場合には、あらかじめ「タスク適応」を用いてタスク依存モデルを作成しておき、それを統計翻訳に利用することができる。
従来の翻訳装置において、入力された第1自然言語表現の翻訳として適切な第2自然言語表現を選択することを可能にする翻訳装置があった(例えば、特許文献1参照)。かかる翻訳装置において、第1、第2自然言語共起語収集部は、第1、第2自然言語コーパスを検索してそれぞれ第1、第2自然言語の表現に共起する語および共起語毎の統計情報を取得する。第1、第2自然言語共起情報解析部は、それぞれ受け取った共起語およびその統計情報を用いて各共起語の特徴量を計算し、第1、第2の自然言語共起情報として出力する。共起情報比較部は、第1自然言語共起情報と第2自然言語共起情報と対訳辞書を使用して、第1自然言語表現と第2自然言語表現の全ての組み合わせについてその意味的な類似度を計算し、翻訳候補選択部に送る。翻訳候補選択部は、入力された第1自然言語表現に対して意味的な類似度の最も高い第2自然言語表現を選択して出力する。
また、従来の他の翻訳装置において、対訳フレーズを利用した統計機械翻訳装置において、より高い精度で翻訳を行うことができる装置があった(例えば、特許文献2参照)。かかる統計機械翻訳装置において、日英機械翻訳のデコーダは、日本語フレーズNグラムモデル、英語フレーズNグラムモデル、英語言語モデル、および英語から日本語へのフレーズ翻訳モデルと、日本語の入力文に対し可能な全てのセグメンテーションを行なうセグメンテーション処理部と、得られたセグメンテーションにしたがい、日本語フレーズNグラムモデル、英語フレーズNグラムモデル、英語言語モデル、および英語から日本語へのフレーズ翻訳モデルを用い、英語のフレーズを任意の順序で確率付きで並べたフレーズシーケンスを表すラッティスを作成するラッティス作成部と、ラッティス作成部が作成したラッティスのうちで最も確率の高い上位M個の経路を探索して出力するA*探索処理部とを含む装置である。
なお、本発明に関連する技術として、非特許文献1、非特許文献2に記述された技術がある。
特開2002−351872号公報(第1頁、第1図等) 特開2006−099208号公報(第1頁、第1図等) S. M. Katz,"Estimation of Probabilities from Sparse Data for Language Model Component of a Speech Recognizer,",IEEE Trans. on Acoustics, Speech, and Signal Processing, pp. 400-401, 1987. K. Seymore, R. Rosenfeld,"Using Story Topics for Language Model Adaptation,",Proc. EUROSPEECH, pp. 1987-1990, 1997.
しかしながら、タスクをあらかじめ想定しておくことが困難な場合も多く、このような場合は通常の「タスク適応」の手法を用いることはできない。
また、従来の翻訳装置においては、用意したモデルのタスクが、翻訳対象の文にマッチしない場合に、翻訳の性能が著しく劣化する、という課題があった。
本第一の発明のクラスタ生成装置は、第一の言語の文と、当該文の第二の言語への翻訳文の対の情報である対訳文対を複数格納している対訳文対格納部と、前記対訳文対格納部から複数の対訳文対を読み出し、当該複数の対訳文対をn個のバッファに配置する対訳文対配置部と、前記バッファ毎に、前記対訳文対配置部が配置する各バッファ中の1以上の対訳文対を1以上の用語に分割し、当該1以上の対訳文対中に用語が出現する確率についての情報である確率情報を取得し、用語と当該用語に対応する確率情報を有する用語出現確率情報を1以上有する情報である言語モデルを取得し、記録媒体上に配置する言語モデル取得部と、前記言語モデル取得部が取得した1以上の用語出現確率情報が有する1以上の確率情報を用いて、前記n個のバッファ毎に、用語の出現の均一具合についての情報であるnのエントロピーを算出し、記憶媒体に配置するエントロピー算出部と、前記nのエントロピーを取得し、前記n個のバッファ全体の用語の出現の均一具合についての情報である総エントロピーを算出し、記憶媒体に配置する総エントロピー算出部と、前記n個のバッファのうちのいずれかのバッファ中のいずれかの対訳文対を読み出し、他の各バッファに移動する対訳文対移動部と、前記対訳文対移動部が対訳文対を各バッファに移動した後、バッファごとに、前記言語モデル取得部に前記言語モデルを取得し、記録媒体上に配置するように指示し、前記エントロピー算出部に前記nのエントロピーを算出し、記憶媒体に配置するように指示し、および前記総エントロピー算出部に対して総エントロピーを算出し、記憶媒体に配置するように指示する第一制御部と、前記第一制御部の制御に対応して、バッファごとに、得られたnの総エントロピーを取得し、当該nの総エントロピーのうちで最も小さい総エントロピーに対応するバッファに、当該移動対象の対訳文対の移動先のバッファを決定し、当該バッファに前記移動対象の対訳文対を書き込む対訳文対移動先決定部と、前記対訳文対移動先決定部が決定した後の最近の総エントロピーと、その前に前記対訳文対移動先決定部が決定した後の直前の総エントロピーを用いて、エントロピーの変化量を算出し、記録媒体に配置する変化量算出部と、前記変化量算出部が算出した変化量が閾値より小さいか否か、または閾値以下であるか否かを判断する変化判断部と、前記変化判断部が、変化量が閾値より小さい、または閾値以下であると判断するまで、前記対訳文対移動部、前記第一制御部および前記対訳文対移動先決定部に当該各部の処理を繰り返させる第二制御部と、前記対訳文対移動先決定部が最後にバッファに対訳文対を書き込んだ後の前記n個のバッファ内の対訳文対のn種類の集合を、n種類に区別して蓄積するクラスタ蓄積部を具備するクラスタ生成装置である。
かかる構成により、自動的にクラスタを生成できる。ここで、クラスタとは、複数の文を、タスクごとに分類した情報である。また、当該クラスタを用いて、精度の高い機械翻訳が可能となる。
また、本第二の発明のクラスタ生成装置は、第一の発明に対して、前記言語モデル取得部が取得する確率情報は、1以上の対訳文対中に一の用語が出現する確率であるクラスタ生成装置である。
かかる構成により、高速に自動的にクラスタを生成できる。
また、本第三の発明の翻訳装置は、n(nは2以上の整数)種類の区別された言語モデルであり、用語および当該用語が1以上の対訳文対中に出現する確率についての情報である確率情報を用語毎に有する言語モデルを格納している言語モデル格納部と、翻訳対象の第一の言語の文を受け付ける受付部と、前記受付部が受け付けた文を取得し、当該文を1以上の用語に分割し、記憶媒体に配置する文分割部と、前記言語モデル格納部の各言語モデルを読み出し、当該各言語モデルを用いて、前記文分割部が取得した1以上の各用語が、各言語モデルが有する1以上の対訳文対中に出現する確率に関する情報である翻訳原文出現確率を、言語モデル毎に算出し、記憶媒体に配置する翻訳原文出現確率算出部と、前記言語モデル毎に算出されたnの翻訳原文出現確率を用いて、最も出現する確率が高い言語モデルを決定する言語モデル決定部と、前記言語モデル決定部が決定した言語モデルを、前記言語モデル格納部から読み出し、当該読み出した言語モデルを用いて、前記前記受付部が受け付けた文を第二の言語の文に翻訳し、当該翻訳結果を出力する翻訳部を具備する翻訳装置である。
かかる構成により、精度の高い機械翻訳が可能となる。
また、本第四の発明の翻訳装置における前記言語モデル格納部が格納しているn種類の区別された各言語モデルは、第一または第二のクラスタ生成装置が蓄積したn種類の各対訳文対の集合から構成された情報であり、n種類の各対訳文対の集合が有する各対訳文対を1以上の用語に分割し、当該1以上の用語が対訳文対の集合中に出現する確率についての情報である確率情報を用語毎に算出されることにより得られた情報である。
かかる構成により、効率的に精度の高い機械翻訳が可能となる。
また、本第五の発明の翻訳装置における前記確率情報は、第三、第四いずれかの発明に対して、単語3−gramの確率である翻訳装置である。
かかる構成により、さらに精度の高い機械翻訳が可能となる。
また、本第六の発明の翻訳装置における前記翻訳部は、第三から第五いずれかの発明に対して、前記言語モデル決定部が決定した言語モデル(T)を、前記言語モデル格納部から読み出し、当該読み出した言語モデル(T)において、P(e|f,T)P(f|T)[eは入力された翻訳対象の文、fは目的言語の文]を最大にする第二の言語の文(f)を、前記言語モデル(T)が有する1以上の対訳文対が有する第二の言語の翻訳文から選択する翻訳装置である。
かかる構成により、精度の高い機械翻訳が可能となる。
本発明による翻訳装置によれば、精度の高い機械翻訳が可能となる。
以下、クラスタ生成装置、翻訳装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
(実施の形態1)
図1は、本実施の形態におけるクラスタ生成装置のブロック図である。
クラスタ生成装置は、対訳文対格納部101、対訳文対配置部102、言語モデル取得部103、エントロピー算出部104、総エントロピー算出部105、対訳文対移動部106、第一制御部107、対訳文対移動先決定部108、変化量算出部109、変化判断部110、第二制御部111、クラスタ蓄積部112を具備する。
対訳文対格納部101は、第一の言語の文と、当該文の第二の言語への翻訳文の対の情報である対訳文対を複数格納している。第一の言語の文とは、例えば、日本語の文の情報である。また、第二の言語への翻訳文は、例えば、英語の文の情報である。対訳文対は、例えば、日本語の文の情報と英語の文の情報を有する。対訳文対のデータ構造は、問わない。対訳文対は、バッファに連続して、日本語の文の情報と英語の文の情報を有しても良いし、日本語の文の情報と英語の文の情報が異なるバッファに存在し、リンクにより関連付けられていても良い。対訳文対格納部101は、通常、大量の対訳文対(例えば、50万の対の情報)を有する。対訳文対格納部101は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
対訳文対配置部102は、対訳文対格納部101から複数の対訳文対を読み出し、当該複数の対訳文対をn個(nは2以上の整数)のバッファに配置する。各バッファは、メインメモリやキャッシュなどに構成されていても良いし、ハードディスクやDVDなどの記録媒体に構成されていても良い。各バッファは、通常、連続する記憶領域で構成されるが、不連続な記憶領域でも良い。対訳文対配置部102は、対訳文対格納部101から多数の対訳文対を読み出し、例えば、一のバッファに、nに対訳文対を分類して(各対訳文対に1からnの符号を付しても良い)、配置しても良い。かかる場合も、複数の対訳文対をn個のバッファに配置したことと同義である、とする。つまり、「複数の対訳文対をn個のバッファに配置する」とは、nに対訳文対を分類することを示す。対訳文対配置部102は、通常、ランダムに、複数の対訳文対をn個のバッファに配置する。ただし、対訳文対配置部102は、何らかのアルゴリズムに基づいて、複数の対訳文対をn個のバッファに配置しても良い。何らかのアルゴリズムとは、例えば、対訳文対を数値に変換し、当該数値をnで割った余りのIDで識別されるバッファに配置する、などである。対訳文対配置部102は、通常、MPUやメモリ等から実現され得る。対訳文対配置部102の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
言語モデル取得部103は、バッファ毎に、対訳文対配置部102が配置する各バッファ中の1以上の対訳文対を1以上の用語に分割し、当該1以上の対訳文対中に用語が出現する確率についての情報である確率情報を取得し、用語と当該用語に対応する確率情報を有する用語出現確率情報を1以上有する情報である言語モデルを取得し、記録媒体上に配置する。なお、対訳文対は、予めスペース等の区切り文字で区切られていても良く、かかる場合、対訳文対を1以上の用語に分割する処理は、例えば、用語を順次、読み出す処理である。また、対訳文対を1以上の用語に分割する処理は、形態素解析等の言語処理により、単語に分割する処理でも良い。確率情報は、例えば、1以上の対訳文対中に一の用語が出現する確率である。また、確率情報は、例えば、条件付確率でも良い。条件付確率とは、例えば、単語3−gramである。言語モデル取得部103は、バッファ毎に、言語モデルを取得し、記録媒体上に配置するので、nの言語モデルが構成される。言語モデル取得部103は、通常、MPUやメモリ等から実現され得る。言語モデル取得部103の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
エントロピー算出部104は、言語モデル取得部103が取得した1以上の用語出現確率情報が有する1以上の確率情報を用いて、n個のバッファ毎に、用語の出現の均一具合についての情報であるnのエントロピーを算出し、記憶媒体に配置する。出現の均一具合が算出される対象の用語は、各バッファに存在する1以上の対訳文対を構成する複数の用語である。エントロピーは、情報源を観測したときに得られる情報量の期待値のことであり、ここでは、用語の出現の均一具合を示す情報である。エントロピーが小さい値をとるほど、用語が偏って出現していることを示す。エントロピー算出部104は、例えば、以下の数式1に示す演算式を用いてエントロピーを算出する。つまり、エントロピー算出部104は、例えば、バッファに存在する各用語について、出現確率Pを「当該用語が出現する回数/用語の出現回数の和」により算出し、出現確率Pから「−logP」を演算し、取得する。そして、エントロピー算出部104は、全用語の「−logP」の和を取得し、エントロピーとする。なお、エントロピー算出部104は、「当該用語が出現する回数/用語の出現回数の和」、「−logP」などの演算式の情報を予め格納しており、かかる演算式の情報を読み込み、値を代入して、結果を得る。エントロピー算出部104は、通常、MPUやメモリ等から実現され得る。エントロピー算出部の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。また、エントロピーは、通常、情報の均一度合いを示す情報であるが、エントロピー算出部104は、その裏返しの情報のばらつき具合を示す情報を算出しても良い。かかる場合も、エントロピー算出部104は、エントロピーを算出する、とする。
総エントロピー算出部105は、エントロピー算出部104が算出し、記憶媒体に配置したnのエントロピーを取得し、n個のバッファ全体の用語の出現の均一具合を示す情報である総エントロピーを算出し、記憶媒体に配置する。総エントロピー算出部105は、通常、nのエントロピーの和を算出し、記憶媒体に配置する。総エントロピー算出部105は、通常、MPUやメモリ等から実現され得る。総エントロピー算出部105の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
対訳文対移動部106は、n個のバッファのうちのいずれかのバッファ中のいずれかの対訳文対を読み出し、他の各バッファに移動する。対訳文対移動部106は、通常、順に、移動対象の対訳文対を選択していく。対訳文対移動部106は、通常、MPUやメモリ等から実現され得る。対訳文対移動部106の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
第一制御部107は、対訳文対移動部106が対訳文対を各バッファに移動した後、対訳文対が移動したバッファごとに、言語モデル取得部103に言語モデルを取得し、記録媒体上に配置するように指示し、エントロピー算出部104にnのエントロピーを算出し、記憶媒体に配置するように指示し、および総エントロピー算出部105に対して総エントロピーを算出し、記憶媒体に配置するように指示する。第一制御部107は、対訳文対移動部106が一の対訳文対を各バッファに移動する毎に、上記の処理(各部に対する指示)を行う。第一制御部107は、通常、MPUやメモリ等から実現され得る。第一制御部107の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。なお、クラスタ生成装置がソフトウェアで実現される場合、第一制御部107は、単に、言語モデル取得部103に対応する関数を呼び出したり、エントロピー算出部104に対応する関数を呼び出したり、総エントロピー算出部105に対応する関数を呼び出したりするだけでも良い。
対訳文対移動先決定部108は、第一制御部107の制御に対応して、バッファごとに、得られたnの総エントロピーを取得し、当該nの総エントロピーのうちで最も小さい総エントロピーに対応するバッファ(最も用語の出現の均一具合の小さい場合に、対訳文対が存在するバッファ)に、当該移動対象の対訳文対の移動先のバッファを決定し、当該バッファに前記移動対象の対訳文対を書き込む。ここで、すでに移動対象の対訳文対が、決定されたバッファに書き込まれている場合は、この書き込み処理は省略される。上記の対訳文対移動先決定部108の処理は、言い換えれば、全ての対訳文対一つ一つに対して、総エントロピーが最小となるようなバッファへの移動を行う処理である。対訳文対移動先決定部108は、通常、MPUやメモリ等から実現され得る。対訳文対移動先決定部108の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
変化量算出部109は、対訳文対移動先決定部108が全対訳文対について、移動先を決定した後の最近の総エントロピーと、その前のサイクル(全対訳文対について、移動先を決定する処理を一サイクル、とする。)において、対訳文対移動先決定部108が全対訳文対について、移動先を決定した後の総エントロピー(直前の総エントロピー)を用いて、エントロピーの変化量を算出し、記録媒体に配置する。変化量算出部109は、通常、「|最近の総エントロピー − 直前の総エントロピー|」により、変化量を算出する。変化量算出部109は、通常、MPUやメモリ等から実現され得る。変化量算出部109の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
変化判断部110は、変化量算出部109が算出した変化量が閾値より小さいか否か、または閾値以下であるか否かを判断する。なお、変化判断部110は、予め閾値を格納している。そして、変化判断部110は、閾値を読み出し、変化量算出部109が算出した変化量が閾値より小さいか否か、または閾値以下であるか否かを判断し、判断結果を第二制御部111に渡す。変化判断部110は、通常、MPUやメモリ等から実現され得る。変化判断部110の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
第二制御部111は、変化判断部110が、変化量が閾値より小さい、または閾値以下であると判断するまで、対訳文対移動部106、第一制御部107および対訳文対移動先決定部108に当該各部の処理を繰り返させる。各部の処理を繰り返させる処理は、例えば、各部の処理に対応する関数を呼び出す処理である。第二制御部111は、通常、MPUやメモリ等から実現され得る。第二制御部111の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
クラスタ蓄積部112は、対訳文対移動先決定部108が最後にバッファに対訳文対を書き込んだ後のn個のバッファ内の対訳文対のn種類の集合を、n種類に区別して、記録媒体に蓄積する。クラスタ蓄積部112は、通常、n種類のバッファに分類された対訳文対の集合を書き込む。ただし、クラスタ蓄積部112は、フラグ(例えば、1からnまでの整数値)が付与された多数の対訳文対を、一のバッファに書き込んでも良い。クラスタとは、n種類に区分されたうちの一の区分の対訳文対の集合をいう。したがって、クラスタ蓄積部112は、n個のクラスタを記録媒体に蓄積する処理を行う。クラスタ蓄積部112は、通常、MPUやメモリ等から実現され得る。クラスタ蓄積部112の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
次に、クラスタ生成装置の動作について図2から図5のフローチャートを用いて説明する。
(ステップS201)対訳文対配置部102は、カウンタiに1を代入する。
(ステップS202)対訳文対配置部102は、i番目の対訳文対が対訳文対格納部101に存在するか否かを判断する。i番目の対訳文対が存在すればステップS203に行き、i番目の対訳文対が存在しなければステップS207に行く。
(ステップS203)対訳文対配置部102は、i番目の対訳文対を対訳文対格納部101から読み出す。
(ステップS204)対訳文対配置部102は、「(i/nの余り)+1」の値を算出し、当該算出した値を、変数jに格納する。なお、「n」はバッファ数であり、予め格納されている。対訳文対配置部102は、nの値および式「(i/nの余り)+1」の情報を読み出し、「i」「n」の値を式に代入し、演算する。
(ステップS205)対訳文対配置部102は、j番目のバッファにi番目の対訳文対を移動(または複写)する。
(ステップS206)対訳文対配置部102は、カウンタiを1、インクリメントする。ステップS202に戻る。
(ステップS207)言語モデル取得部103は、言語モデルを作成し、記録媒体上に配置する。かかる言語モデル作成の処理について、図3のフローチャートを用いて詳細に説明する。
(ステップS208)エントロピー算出部104は、エントロピー算出処理を行う。エントロピー算出処理について、図4のフローチャートを用いて詳細に説明する。エントロピー算出処理は、各バッファ(言語モデル)に対応して、エントロピーが算出される。つまり、バッファ数(n)に対して、nのエントロピーが算出される。
(ステップS209)総エントロピー算出部105は、ステップS208で算出されたnのエントロピーの和を算出し、記録媒体に格納する。nのエントロピーの和は、総エントロピーである。
(ステップS210)対訳文対移動先決定部108は、カウンタiに1を代入する。
(ステップS211)対訳文対移動先決定部108は、i番目の対訳文対がnのバッファ中に存在するか否かを判断する。i番目の対訳文対が存在すればステップS212に行き、i番目の対訳文対が存在しなければステップS214に行く。
(ステップS212)対訳文対移動先決定部108は、i番目の対訳文対の移動先を決定する。この移動先決定の処理について、図5のフローチャートを用いて詳細に説明する。
(ステップS213)対訳文対移動先決定部108は、カウンタiを1、インクリメントする。ステップS211に戻る。
(ステップS214)対訳文対移動先決定部108は、ステップS212で決定された総エントロピー(ループの最後に決定された総エントロピー)を一時的にメモリに追記する。
(ステップS215)変化量算出部109は、最新の総エントロピーを取得する。最新の総エントロピーは、最後にステップS214で追記された総エントロピーである。
(ステップS216)変化量算出部109は、最新の一つ前(直前)の総エントロピーを読み出す。
(ステップS217)変化量算出部109は、ステップS215で得た総エントロピーと、ステップS216で得た総エントロピーから、総エントロピーの変化量を算出する。例えば、変化量算出部109は、「|ステップS215で得た総エントロピー − ステップS216で得た総エントロピー|」により、総エントロピーの変化量を算出する。
(ステップS218)変化量算出部109は、予め格納している閾値を読み出し、「変化量<閾値」を満たすか否かを判断する。「変化量<閾値」を満たせばステップS219に行き、「変化量<閾値」を満たさなければステップS210に戻る。
(ステップS219)クラスタ蓄積部112は、nのバッファの対訳文対の集合を、nに区別して記録媒体に書き込む。nに区別された対訳文対の集合を、それぞれクラスタやタスクなどとも呼ぶ。
次に、ステップS207の言語モデル作成の処理について、図3のフローチャートを用いて詳細に説明する。
(ステップS301)言語モデル取得部103は、カウンタiに1を代入する。
(ステップS302)言語モデル取得部103は、「i<=n」であるか否かを判断する。「i<=n」であればステップS303に行き、「i<=n」でなければ上位関数にリターンする。
(ステップS303)言語モデル取得部103は、i番目のバッファ内の対訳文対の集合を読み出す。
(ステップS304)言語モデル取得部103は、ステップS303で読み出した対訳文対の集合を単語に分割し、全単語をメモリ上に配置する。
(ステップS305)言語モデル取得部103は、ステップS304で分割した単語をソートし、ソートした結果をメモリ上に配置する。
(ステップS306)言語モデル取得部103は、ステップS304で分割した単語の全数を取得する。
(ステップS307)言語モデル取得部103は、カウンタjに1を代入する。
(ステップS308)言語モデル取得部103は、ステップS305でソートした全単語中に、j番目の種類の単語が存在するか否かを判断する。j番目の種類の単語が存在すればステップS309に行き、j番目の種類の単語が存在しなければステップS313に行く。
(ステップS309)言語モデル取得部103は、ソートした全単語中における、j番目の種類の単語の出現回数を取得する。
(ステップS310)言語モデル取得部103は、ソートした全単語中における、j番目の種類の単語の出現確率を取得する。言語モデル取得部103は、「ステップS309で取得した出現回数/ステップS306で算出した単語の全数」により、j番目の種類の単語の出現確率を算出する。
(ステップS311)言語モデル取得部103は、j番目の種類の単語と、ステップS310で取得した出現確率を対にして、記録媒体に蓄積する。
(ステップS312)言語モデル取得部103は、カウンタjを1、インクリメントする。ステップS308に戻る。
(ステップS313)言語モデル取得部103は、カウンタiを1、インクリメントする。ステップS302に戻る。
次に、ステップS208のエントロピー算出処理について図4のフローチャートを用いて説明する。
(ステップS401)エントロピー算出部104は、カウンタiに1を代入する。
(ステップS402)エントロピー算出部104は、「i<=n」であるか否かを判断する。「i<=n」であればステップS403に行き、「i<=n」でなければ上位関数にリターンする。
(ステップS403)エントロピー算出部104は、i番目のバッファに対応するi番目の言語モデルを読み出す。なお、言語モデルは、図3のフローチャートの処理により、取得されている。
(ステップS404)エントロピー算出部104は、カウンタjに1を代入し、変数「エントロピー」を0に初期化する。
(ステップS405)エントロピー算出部104は、ステップS403で読み出した言語モデル中に、j番目の種類の単語が存在するか否かを判断する。j番目の種類の単語が存在すればステップS406に行き、j番目の種類の単語が存在しなければステップS410に行く。
(ステップS406)エントロピー算出部104は、j番目の種類の単語に対応する出現確率Pを、ステップS403で読み出した言語モデルから読み出す。
(ステップS407)エントロピー算出部104は、「−logP」を算出し、結果をメモリ上に配置する。
(ステップS408)エントロピー算出部104は、変数「エントロピー」に、「−logP」を加算する。
(ステップS409)エントロピー算出部104は、カウンタjを1、インクリメントする。ステップS405に戻る。
(ステップS410)エントロピー算出部104は、i番目のバッファに対応するエントロピー(変数「エントロピー」の値)を、記録媒体に蓄積する。
(ステップS411)エントロピー算出部104は、カウンタiを1、インクリメントする。ステップS402に戻る。
次に、ステップS212の移動先決定処理について図5のフローチャートを用いて説明する。
(ステップS501)対訳文対移動先決定部108は、処理対象の対訳文対を読み出す。
(ステップS502)対訳文対移動先決定部108は、カウンタjに1を代入する。
(ステップS503)対訳文対移動先決定部108は、「j<=n」であるか否かを判断する。「j<=n」であればステップS504に行き、「j<=n」でなければステップS510に行く。
(ステップS504)対訳文対移動先決定部108は、ステップS501で読み出した対訳文対を、j番目のバッファに移動する。
(ステップS505)言語モデル取得部103は、ステップS504の処理後のnのバッファの状態で、言語モデルを作成する。
(ステップS506)エントロピー算出部104は、エントロピー算出処理を行う。
(ステップS507)総エントロピー算出部105は、ステップS506で算出されたnのエントロピーの和を算出し、記録媒体に格納する。
(ステップS508)対訳文対移動先決定部108は、jと、ステップS507で算出した総エントロピーの組を一時的にメモリに格納する。
(ステップS509)対訳文対移動先決定部108は、カウンタjを1、インクリメントする。ステップS503に戻る。
(ステップS510)対訳文対移動先決定部108は、ステップS508で格納したnの総エントロピーの中で、最小の総エントロピーを決定する。
(ステップS511)対訳文対移動先決定部108は、ステップS510で決定した最小の総エントロピーに対応するj(バッファの識別子)を取得する。
(ステップS512)対訳文対移動先決定部108は、移動対象の対訳文対をj番目のバッファに書き込む。なお、移動対象の対訳文対がj番目のバッファに存在する場合、かかる処理は行わない。上位関数にリターンする。
なお、図5のフローチャートにおいて、ステップS501で読み出した対訳文対が最初に存在するバッファに関して、ステップS504の処理は省略しても良いことは言うまでもない。
以下、本実施の形態におけるクラスタ生成装置の意義について説明する。クラスタ生成装置で生成し、記録媒体に蓄積されたnに分類されたクラスタは、例えば、統計翻訳で利用される。
統計翻訳は、以下の数式1に示されるように、与えられた翻訳原言語単語列(e)に対し、確率が最大となる翻訳目的言語単語列(f)を見つける問題である。
この数式1においては、翻訳先目的単語列(f)は翻訳原単語列(e)のみで決るが、実際はトピック等の環境の影響を大きく受ける。ここでは、この環境をタスクとみなし(T)で表わすこととする。この、タスク(T)が既知の場合は(T)を新たな変量として数式1に導入することにより、以下の数式2が得られる。なお、タスク(T)は、クラスタ(T)と同義であり、上述した各バッファの対訳文対の集合に対応する。
そして、数式2は、ベイズ則を用いて、数式3のように書き換えることができる。
ここで、P(f|e,T)がタスク依存翻訳モデル、P(f|T)がタスク依存言語モデルである。
数式2を用いる場合は、あらかじめ適応モデルを構築しておく、すなわちオフライン適応が可能であるが、タスク(T)は必ずしも既知ではない。この場合は、タスク(T)と翻訳目的単語列(f)を同時に推定する問題、すなわちオンライン適応として、以下の数式4のように表わされることになる。
この数式4と数式2との大きな違いは、数式4においてはタスクを表わす変量(T)が隠れ変数となっていることである。また数式4の右辺のP(T|e)はタスク推定、P(f|e,T)はタスク適応を表わしている。
数式4を満たす翻訳目的単語列(f)を求めるためにはP(T|e)とP(f|e,T)を同時に最大化する必要がある。しかしながら、これは困難であるため、本実施の形態、および実施の形態2において、近似としてまずP(T|e)を最大化し、それによって求まった(T)を用いてP(f|e,T)を最大化するという手順をとる。
オフライン適応の場合、タスクはトピック等の人間の感覚に合ったものとして、あらかじめ規定されていることが多い。しかしながら、オンライン適応の場合は、タスクは隠れ変数として用いられ、外部に出力する必要もない。このため、まずタスクそのものを自由に規定しておくことが可能である。この場合のタスクは、必ずしも人間の感覚に合ったものである必要はないため、タスク(T)は統計的な観点から、数式4をなるべく大きく、すなわちP(T|e)とP(f|e,T)をなるべく大きくできるように規定することが望ましい。
そこで、この近似として、P(f|e,T)をP(f|T)で置き換えたP(T|e)P(f|T)を最大化するような(T)を規定する。最大化の対象であるP(T|e)P(f|T)は、ベイズ則を用いて数式5のように書き換えることができる。
ここで、P(e)は(T)に無関係であり、さらにP(T)を定数とする近似を導入することによって、規定すべきタスク(T)は、数式6で表わされることになる。
この数式6は、(f)と(e)に対して同時に確率を最大化する、すなわち(f)と(e)の尤度の和を最大化するように(T)を規定することを意味している。これはすなわち、(f)と(e)の対訳文対をエントロピー最小化の基準の元にクラスタリングを行えばよいことを意味している。本クラスタ生成装置は、(f)と(e)の対訳文対をエントロピー最小化の基準の元にクラスタリングを行った結果を得る。この結果は、n個のバッファ内の対訳文対のn種類の集合を、n種類に区別して蓄積した情報であり、nに分類されたクラスタである。
以上、本実施の形態によれば、対訳文対の集合に対して、エントロピー最小化の基準に対応した分類が可能になる。したがって、本実施の形態によれば、実施の形態2で述べる機械翻訳に好適な言語モデルを自動的に構築できる。また、本実施の形態によれば、言語モデルの元になるn種類に区別して蓄積された対訳文対の集合を自動的に得ることができる。なお、本実施の形態におけるクラスタ生成装置が生成したクラスタから生成された言語モデルを用いれば、精度の高い機械翻訳が可能となる(実施の形態2参照)。
なお、本実施の形態によれば、言語モデル取得部103が取得する確率情報は、1以上の対訳文対中に一の用語が出現する確率(uni−gramの確率)であった。しかし、言語モデル取得部103が取得する確率情報は、単語2−gramの確率や、単語3−gramの確率等でも良い。
また、本実施の形態におけるエントロピーは、本実施の形態で述べた式で算出される値に限られないことは言うまでもない。つまり、エントロピーは、用語の出現の均一具合を示す情報であれば良い。この用語の出現の均一具合は、裏返せば、用語の出現の偏りになり、エントロピーは、この偏り度合いをも含む概念としてとらえる、こととする。
さらに、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD−ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態におけるクラスタ生成装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、第一の言語の文と、当該文の第二の言語への翻訳文の対の情報である対訳文対を複数、記憶媒体に格納しており、コンピュータに、前記記憶媒体から複数の対訳文対を読み出し、当該複数の対訳文対をn個のバッファに配置する対訳文対配置ステップと、前記バッファ毎に、前記対訳文対配置ステップが配置する各バッファ中の1以上の対訳文対を1以上の用語に分割し、当該1以上の対訳文対中に用語が出現する確率についての情報である確率情報を取得し、用語と当該用語に対応する確率情報を有する用語出現確率情報を1以上有する情報である言語モデルを取得し、記録媒体上に配置する言語モデル取得ステップと、前記言語モデル取得ステップで取得した1以上の用語出現確率情報が有する1以上の確率情報を用いて、前記n個のバッファ毎に、用語の出現の均一具合についての情報であるnのエントロピーを算出し、記憶媒体に配置するエントロピー算出ステップと、前記nのエントロピーを取得し、前記n個のバッファ全体の用語の出現の均一具合についての情報である総エントロピーを算出し、記憶媒体に配置する総エントロピー算出ステップと、前記n個のバッファのうちのいずれかのバッファ中のいずれかの対訳文対を読み出し、他の各バッファに移動する対訳文対移動ステップと、前記対訳文対移動ステップで対訳文対を各バッファに移動した後、バッファごとに、前記言語モデルを取得し、記録媒体上に配置させ、前記nのエントロピーを算出し、記憶媒体に配置させ、および総エントロピーを算出し、記憶媒体に配置させる第一制御ステップと、前記第一制御ステップにおける処理に対応して、バッファごとに、得られたnの総エントロピーを取得し、当該nの総エントロピーのうちで最も小さい総エントロピーに対応するバッファに、当該移動対象の対訳文対の移動先のバッファを決定し、当該バッファに前記移動対象の対訳文対を書き込む対訳文対移動先決定ステップと、前記対訳文対移動先決定ステップにおいて、全対訳文対について移動先を決定した後の最近の総エントロピーと、その前のサイクルにおいて、前記対訳文対移動先決定ステップで全対訳文対について、移動先を決定した後の総エントロピーである直前の総エントロピーを用いて、エントロピーの変化量を算出し、記録媒体に配置する変化量算出ステップと、前記変化量算出ステップで算出した変化量が閾値より小さいか否か、または閾値以下であるか否かを判断する変化判断ステップと、前記変化判断ステップで、変化量が閾値より小さい、または閾値以下であると判断するまで、前記対訳文対移動ステップにおける処理、前記第一制御ステップにおける処理、および前記対訳文対移動先決定ステップにおける処理を繰り返させ、前記対訳文対移動先決定ステップにおいて最後にバッファに対訳文対を書き込んだ後の前記n個のバッファ内の対訳文対のn種類の集合を、n種類に区別して蓄積するクラスタ蓄積ステップを実行させるためのプログラム、である。
また、上記プログラムにおいて、前記言語モデル取得部が取得する確率情報は、1以上の対訳文対中に一の用語が出現する確率であることは好適である。
(実施の形態2)
図6は、本実施の形態における翻訳装置のブロック図である。本翻訳装置は、言語モデル格納部501、受付部502、文分割部503、翻訳原文出現確率算出部504、言語モデル決定部505、翻訳部506を具備する。
言語モデル格納部501は、n(nは2以上の整数)種類の区別された言語モデルを格納している。言語モデルは、用語および当該用語が1以上の対訳文対中に出現する確率についての情報である確率情報を用語毎に有する。言語モデルは、複数の用語および当該複数の連続する用語の組が1以上の対訳文対中に出現する確率についての情報である確率情報を複数の用語毎に有しても良い。ここでの言語モデルは、例えば、日本語と英語の対訳文対の集合から構成される言語モデルであり、日本語、英語ともGood−Turing(非特許文献1)で平滑化された単語3−gramである。また、入力された日本語文に対し、最大尤度を与えるクラスタを選択する際のモデルは、例えば、クラスタ依存の日本語単語3−gramである。一方、選択されたクラスタに対して、翻訳時に用いられる英語の言語モデルは、クラスタ依存の英語単語3−gramである。また、言語モデル格納部501の言語モデルは、実施の形態1で説明したクラスタ生成装置が蓄積したn種類の各対訳文対の集合から構成された情報であり、n種類の各対訳文対の集合が有する各対訳文対を1以上の用語に分割し、当該1以上の用語が対訳文対の集合中に出現する確率についての情報である確率情報を1以上の用語毎に算出されることにより得られた情報であることは好適である。ここで、確率情報は、例えば、単語3−gramの確率である。また、確率情報は、例えば、単語unigramの確率であっても良い。
言語モデル格納部501は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
受付部502は、翻訳対象の第一の言語(原言語)の文を受け付ける。受付部502は、その他、翻訳処理の開始指示などのユーザからの指示やデータなどを受け付けても良い。第一の言語の文などの入力手段は、テンキーやキーボードやマウスやメニュー画面によるもの等、何でも良い。受付部502は、テンキーやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。
文分割部503は、受付部502が受け付けた文を取得し、当該文を1以上の用語に分割し、記憶媒体に配置する。文分割部503は、例えば、文に対して形態素解析を行った後、単語に分割しても良い。文を単語に分割する方法は問わない。文を単語に分割する技術は公知技術であるので、詳細な説明を省略する。文分割部503は、通常、MPUやメモリ等から実現され得る。文分割部503の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
翻訳原文出現確率算出部504は、言語モデル格納部501の各言語モデルを読み出し、当該各言語モデルを用いて、文分割部503が取得した1以上の各用語が、各言語モデルが有する1以上の対訳文対中に出現する確率に関する情報である翻訳原文出現確率を、言語モデル毎に算出し、記憶媒体に配置する。翻訳原文出現確率は、例えば、受付部502が受け付けた文のエントロピーである。翻訳原文出現確率は、例えば、言語モデルにおける、1以上の各用語の出現確率の積でも良い。翻訳原文出現確率算出部504は、通常、MPUやメモリ等から実現され得る。翻訳原文出現確率算出部504の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
言語モデル決定部505は、言語モデル毎に算出されたnの翻訳原文出現確率を用いて、最も出現する確率が高い言語モデルを決定する。例えば、翻訳原文出現確率が受付部502の受け付けた文(翻訳対象文)のエントロピーである場合、言語モデル決定部505は、エントロピーを最小にする言語モデルを選択する。つまり、言語モデル決定部505は、翻訳対象文に対し、最も高い尤度を与える言語モデルを選択する。言語モデル決定部505は、通常、MPUやメモリ等から実現され得る。言語モデル決定部505の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
翻訳部506は、言語モデル決定部505が決定した言語モデルを、言語モデル格納部501から読み出し、当該読み出した言語モデルを用いて、受付部502が受け付けた文を第二の言語(目的言語)の文に翻訳する。翻訳部506は、統計翻訳を行う。翻訳部506は、公知技術(例えば、非特許文献2参照)により実現可能であるので、詳細な説明を省略する。翻訳部506は、言語モデル決定部505が決定した言語モデル(T)を、言語モデル格納部501から読み出し、当該読み出した言語モデル(T)において、P(e|f,T)P(f|T)[eは入力された翻訳対象の文、fは目的言語の文]を最大にする第二の言語の文(f)を、言語モデル(T)が有する1以上の対訳文対が有する第二の言語の翻訳文から選択し、出力する。言語モデル(T)が決定され、受付部502が受け付けた翻訳対象の文(e)が決まっている状況で、翻訳部506は、言語モデル(T)に対応するすべての対訳文対が有する第二の言語の文(f)に対して、「P(e|f,T)P(f|T)」を算出し、最大の「P(e|f,T)P(f|T)」の値を示す(f)を取得することは好適である。出力は、ディスプレイへの表示、プリンタへの印刷、スピーカーへの音出力などである。翻訳部506は、通常、MPUやメモリ等から実現され得る。翻訳部506の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。
次に、翻訳装置の動作について図7のフローチャートを用いて説明する。
(ステップS701)受付部502は、翻訳対象の文(e)を受け付けたか否かを判断する。翻訳対象の文(e)を受け付ければステップS702に行き、翻訳対象の文(e)を受け付けなければステップS701に戻る。
(ステップS702)文分割部503は、ステップS701で受け付けた文(e)をメモリ上に配置する。
(ステップS703)文分割部503は、ステップS702でメモリ上に配置した文を1以上の用語に分割し、当該1以上の用語をメモリ上に配置する。
(ステップS704)翻訳原文出現確率算出部504は、カウンタiに1を代入する。
(ステップS705)翻訳原文出現確率算出部504は、「i<=n」であるか否かを判断する。「i<=n」であればステップS706に行き、「i<=n」でなければステップS710に行く。なお、nは、言語モデルの数であり、クラスタの数であり、タスクの数である、といえる。「n」は予め格納されており、翻訳原文出現確率算出部504は、「n」の値を読み出し、「i<=n」が真であるか、偽であるかを判断する。
(ステップS706)翻訳原文出現確率算出部504は、i番目の言語モデルを言語モデル格納部501から読み出す。
(ステップS707)翻訳原文出現確率算出部504は、i番目の言語モデルに対する、文分割部503が取得した1以上の用語の翻訳原文出現確率を算出し、記憶媒体に配置する。翻訳原文出現確率算出部504は、例えば、文(e)に対する尤度(この尤度は、ここでは翻訳原文出現確率)を算出する。翻訳原文出現確率算出部504は、例えば、文分割部503が取得した1以上の各用語のi番目の言語モデル内の出現確率の積を算出し、翻訳原文出現確率としても良い。
(ステップS708)翻訳原文出現確率算出部504は、ステップS707で算出したi番目の翻訳原文出現確率をメモリ上に追記する。
(ステップS709)翻訳原文出現確率算出部504は、カウンタiを1、インクリメントする。ステップS705に行く。
(ステップS710)言語モデル決定部505は、ステップS708でメモリ上に配置されたnの翻訳原文出現確率を読み出し、当該nの翻訳原文出現確率の中から、最も大きい翻訳原文出現確率に対応する言語モデルを決定する。そして、翻訳部506は、言語モデル決定部505が決定した言語モデルを、言語モデル格納部501から読み出す。
(ステップS711)翻訳部506は、カウンタiに1を代入する。
(ステップS712)翻訳部506は、i番目のフレーズ対が言語モデル格納部501に存在するか否かを判断する。i番目のフレーズ対が存在すればステップS713に行き、i番目のフレーズ対が存在しなければステップS717に行く。
(ステップS713)翻訳部506は、i番目のフレーズ対を、言語モデル格納部501から読み出す。
(ステップS714)翻訳部506は、ステップS713で読み出したフレーズ対と格納している翻訳モデルを用いて、「P(e|f,T)P(f|T)」を算出する。
(ステップS715)翻訳部506は、ステップS714で算出した結果をメモリ上に追記する。
(ステップS716)翻訳部506は、カウンタiを1、インクリメントする。ステップS712に行く。
(ステップS717)翻訳部506は、ステップS715でメモリ上に配置した値を用いて、最大の値をとる翻訳文(f)を構成する。
(ステップS718)翻訳部506は、ステップS717で構成した翻訳文(f)を出力する。処理を終了する。
以下、本実施の形態における翻訳装置の意義について説明する。
本翻訳装置において、タスク(T)を入力された(e)から推定することになる。これはすなわちP(T|e)を最大化する(T)を見つけることである。P(T|e)はベイズ則を用いて、P(e|T)P(T)/P(e)と書き換えることができ、クラスタリング時に用いた、P(T)を定数とする近似を導入すれば、P(e|T)を最大化すればよいことになる。これはすなわち、(e)に対して、最大尤度を与えるタスク、すなわちクラスタ(T)を選べばよいことになる。
次に、推定された(T)を用いてタスク適応、すなわちP(f|e,T)の最大化を図る。P(f|e,T)はベイズ則を用いて、下記の数式7に書き換えることができる。
ここで、(e)と(T)は既知であるため、数式7を最大化するためにはP(e|f,T)P(f|T)を最大化すればよいことになる。この式で、P(e|f,T)がタスク依存(タスク適応後)翻訳モデル、P(f|T)がタスク依存(タスク適応後)言語モデルであり、これらのタスク依存モデルを用いて(e)から(f)を推定することを意味している。従って、上記の図7のフローチャートのステップS714において、翻訳部506は、「P(e|f,T)P(f|T)」を算出した。
また、本翻訳装置が翻訳処理を行う前処理として、翻訳モデル、言語モデルの学習データである対訳文対に対し、クラスタリングを行い、その後、クラスタごとに翻訳原言語、翻訳目的言語のクラスタ依存言語モデルを作成する。対訳文対に対し、クラスタリングを行う処理は、上記の実施の形態1におけるクラスタ生成装置が行う。また、クラスタごとに翻訳原言語、翻訳目的言語のクラスタ依存言語モデルを作成する処理とは、クラスタごとに、上述の言語モデルを作成する処理であり、公知技術である。
そして、本翻訳装置において、複数の言語モデル(クラスタ)が用意されており、翻訳原文(e)を受け付け、当該翻訳原文に対し、最も高い尤度を与えるクラスタを選択する。そして、選択されたクラスタの翻訳目的言語のクラスタ依存言語モデルを用いて翻訳を行う。なお、クラスタを選択した後の、クラスタ依存言語モデルを用いた翻訳処理は公知技術であるので、詳細な説明を省略する。
さらに、以下の本実施の形態で述べた手法の実験結果について述べる。
本実験において、対象としたドメインは旅行対話で、用いたコーパスは、旅行対話基本表現集(ATR旅行対話基本表現集(BTEC))である。翻訳言語対は、日本語から英語であり、学習、および評価コーパスのサイズ等は、図8、図9に示す通りである。
本実験において、作成した言語モデルは、日本語、英語ともGood−Turingで平滑化された単語3−gramである。入力された日本語文に対し、最大尤度を与えるクラスタを選択する際のモデルとしては、クラスタ依存の日本語単語3−gramをそのまま用いている。
また、一方、選択されたクラスタに対して、翻訳時に用いられる英語の言語モデルとしては、クラスタ依存の英語単語3−gramと全ての英語学習データを用いて作成したクラスタ非依存単語3−gramを線形補間したものを用いた。
以上のような状況において、まず、対訳文対に対して行うスラスタリングの際の、クラスタ数を変化させた時の、本明細書における翻訳方法の性能評価を行った。評価基準は翻訳目的言語である英語の評価セットに対するパープレキシティである。この時、対象の英語言語モデルにおける、クラスタ依存モデルとクラスタ非依存モデルの線形補間係数は0.5で固定した。
変化させたクラスタ数は、5、10、20である。その場合の結果を図10に示す。図10において左側の軸目盛り"Perplexity"がパープレキシティであり、クラスタ数を変化させた時の値が点線で示されている。クラスタ数が1の場合は適応を行っていない場合、すなわちベースラインを示している。また、右側の軸目盛り"Reduction Rate"は適応を行うことによってエントロピーが減少した評価セット文の割合をしめしている。すなわち、この値が89であれば、評価セット文1、524文のうち、1、357文が適応によってエントロピーが減少し、残りの167文では逆に増加したことを示している。
図10に示される通り、クラスタ数の増加と共に適応後の言語モデルのパープレキシティは減少している。その値はクラスタ数20の場合で、ベースラインの26.9から18.6に減少しており、割合では約31%となっている。また、この時エントロピーが減少した評価セット文の割合も89%と高く、特定の文に限って効果が現れているわけではないことを示している。
次に、クラスタ依存モデルとクラスタ非依存モデルの線形補間係数を変化させた場合の性能変化を調べた。この時のクラスタ数は前節の評価で最もパープレキシティの低かった20に固定した。変化させた補間係数は0.05、および0.1から0.9まで0.1刻みである。このうち、0.5から0.9のあいだの結果を図11に示す。左右の軸は図10と同様である。
図11に示されるように、補間係数0.7でパープレキシティは最小値18.1を示しており、これはベースラインの26.9に対して約33%の減少となっている。しかしながら、エントロピー減少文の割合は補間係数が大きくなるに従って減少している。この割合は図には示されていないが、補間係数0.1で最小となり、その値は92%である。またこの時のパープレキシティは23.1であった。
以上、本実施の形態によれば、翻訳装置は、入力された翻訳原言語文(e)に対して最も低いパープレキシティを与えるクラスタを選択し、最終的に翻訳目的言語に対する、選択されたクラスタ依存言語モデルを用いることにより、高い性能の翻訳が可能になる。
なお、本実施の形態において、翻訳装置がクラスタを決定した後の翻訳方法は問わない。
さらに、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD−ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態における翻訳装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、n(nは2以上の整数)種類の区別された言語モデルであり、用語および当該用語が1以上の対訳文対中に出現する確率についての情報である確率情報を用語毎に有する言語モデルを記録媒体に格納しており、コンピュータに、翻訳対象の第一の言語の文を受け付ける受付ステップと、前記受付ステップで受け付けた文を取得し、当該文を1以上の用語に分割し、記憶媒体に配置する文分割ステップと、前記記録媒体の各言語モデルを読み出し、当該各言語モデルを用いて、前記文分割ステップで取得した1以上の各用語が、各言語モデルが有する1以上の対訳文対中に出現する確率に関する情報である翻訳原文出現確率を、言語モデル毎に算出し、記憶媒体に配置する翻訳原文出現確率算出ステップと、前記言語モデル毎に算出されたnの翻訳原文出現確率を用いて、最も出現する確率が高い言語モデルを決定する言語モデル決定ステップと、前記言語モデル決定ステップで決定した言語モデルを、前記記録媒体から読み出し、当該読み出した言語モデルを用いて、前記前記受付ステップで受け付けた文を第二の言語の文に翻訳し、当該翻訳結果を出力する翻訳ステップを実行させるためのプログラム、である。
また、上記プログラムにおける記憶媒体に格納しているn種類の区別された各言語モデルは、実施の形態1のクラスタ生成装置が蓄積したn種類の各対訳文対の集合から構成された情報であり、n種類の各対訳文対の集合が有する各対訳文対を1以上の用語に分割し、当該1以上の用語が対訳文対の集合中に出現する確率についての情報である確率情報を用語毎に算出されることにより得られた情報である、ことは好適である。
また、上記プログラムにおける前記確率情報は、単語3−gramの確率である、ことは好適である。
また、上記プログラムの前記翻訳ステップにおいて、前記言語モデル決定ステップで決定した言語モデル(T)を、前記記録媒体から読み出し、当該読み出した言語モデル(T)において、P(e|f,T)P(f|T)[eは入力された翻訳対象の文、fは目的言語の文]を最大にする第二の言語の文(f)を、前記言語モデル(T)が有する1以上の対訳文対が有する第二の言語の翻訳文から選択し、出力する、ことは好適である。
また、上記各実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
また、図12は、本明細書で述べたプログラムを実行して、上述した種々の実施の形態のクラスタ生成装置、または翻訳装置を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図12は、このコンピュータシステム340の概観図であり、図13は、コンピュータシステム340のブロック図である。
図12において、コンピュータシステム340は、FD(Flexible Disk)ドライブ、CD−ROM(Compact Disk Read Only Memory)ドライブを含むコンピュータ341と、キーボード342と、マウス343と、モニタ344とを含む。
図13において、コンピュータ341は、FDドライブ3411、CD−ROMドライブ3412に加えて、CPU(Central Processing Unit)3413と、CPU3413、CD−ROMドライブ3412及びFDドライブ3411に接続されたバス3414と、ブートアッププログラム等のプログラムを記憶するためのROM(Read−Only Memory)3415と、CPU3413に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM(Random Access Memory)3416と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3417とを含む。ここでは、図示しないが、コンピュータ341は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。
コンピュータシステム340に、上述した実施の形態のクラスタ生成装置、または翻訳装置の機能を実行させるプログラムは、CD−ROM3501、またはFD3502に記憶されて、CD−ROMドライブ3412またはFDドライブ3411に挿入され、さらにハードディスク3417に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ341に送信され、ハードディスク3417に記憶されても良い。プログラムは実行の際にRAM3416にロードされる。プログラムは、CD−ROM3501、FD3502またはネットワークから直接、ロードされても良い。
プログラムは、コンピュータ341に、上述した実施の形態のクラスタ生成装置、または翻訳装置の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム340がどのように動作するかは周知であり、詳細な説明は省略する。
また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
以上のように、本発明にかかる翻訳装置は、精度の高い機械翻訳ができる、という効果を有し、翻訳装置等として有用である。
実施の形態1におけるクラスタ生成装置のブロック図 同クラスタ生成装置の動作について説明するフローチャート 同言語モデル作成処理について説明するフローチャート 同エントロピー算出処理について説明するフローチャート 同移動先決定処理について説明するフローチャート 実施の形態2におけるクラスタ生成装置のブロック図 同翻訳装置の動作について説明するフローチャート 同評価実験の学習コーパスを示す図 同評価実験の評価コーパスを示す図 同クラスタ数と性能の関係を示す図 同補間係数と性能の関係を示す図 同クラスタ生成装置等を実現するコンピュータの外観図 同クラスタ生成装置等を実現するコンピュータシステムのブロック図
符号の説明
101 対訳文対格納部
102 対訳文対配置部
103 言語モデル取得部
104 エントロピー算出部
105 総エントロピー算出部
106 対訳文対移動部
107 第一制御部
108 対訳文対移動先決定部
109 変化量算出部
110 変化判断部
111 第二制御部
112 クラスタ蓄積部
501 言語モデル格納部
502 受付部
503 文分割部
504 翻訳原文出現確率算出部
505 言語モデル決定部
506 翻訳部

Claims (9)

  1. 第一の言語の文と、当該文の第二の言語への翻訳文の対の情報である対訳文対を複数格納している対訳文対格納部と、
    前記対訳文対格納部から複数の対訳文対を読み出し、当該複数の対訳文対をn個のバッファに配置する対訳文対配置部と、
    前記バッファ毎に、前記対訳文対配置部が配置する各バッファ中の1以上の対訳文対を1以上の用語に分割し、当該1以上の対訳文対中に用語が出現する確率についての情報である確率情報を取得し、用語と当該用語に対応する確率情報を有する用語出現確率情報を1以上有する情報である言語モデルを取得し、記録媒体上に配置する言語モデル取得部と、
    前記言語モデル取得部が取得した1以上の用語出現確率情報が有する1以上の確率情報を用いて、前記n個のバッファ毎に、用語の出現の均一具合についての情報であるnのエントロピーを算出し、記憶媒体に配置するエントロピー算出部と、
    前記nのエントロピーを取得し、前記n個のバッファ全体の用語の出現の均一具合についての情報である総エントロピーを算出し、記憶媒体に配置する総エントロピー算出部と、
    前記n個のバッファのうちのいずれかのバッファ中のいずれかの対訳文対を読み出し、他の各バッファに移動する対訳文対移動部と、
    前記対訳文対移動部が対訳文対を各バッファに移動した後、バッファごとに、前記言語モデル取得部に前記言語モデルを取得し、記録媒体上に配置するように指示し、前記エントロピー算出部に前記nのエントロピーを算出し、記憶媒体に配置するように指示し、および前記総エントロピー算出部に対して総エントロピーを算出し、記憶媒体に配置するように指示する第一制御部と、
    前記第一制御部の制御に対応して、バッファごとに、得られたnの総エントロピーを取得し、当該nの総エントロピーのうちで最も小さい総エントロピーに対応するバッファに、当該移動対象の対訳文対の移動先のバッファを決定し、当該バッファに前記移動対象の対訳文対を書き込む対訳文対移動先決定部と、
    前記対訳文対移動先決定部が、全対訳文対について移動先を決定した後の最近の総エントロピーと、その前のサイクルにおいて、前記対訳文対移動先決定部が全対訳文対について、移動先を決定した後の総エントロピーである直前の総エントロピーを用いて、エントロピーの変化量を算出し、記録媒体に配置する変化量算出部と、
    前記変化量算出部が算出した変化量が閾値より小さいか否か、または閾値以下であるか否かを判断する変化判断部と、
    前記変化判断部が、変化量が閾値より小さい、または閾値以下であると判断するまで、前記対訳文対移動部、前記第一制御部および前記対訳文対移動先決定部に当該各部の処理を繰り返させる第二制御部と、
    前記対訳文対移動先決定部が最後にバッファに対訳文対を書き込んだ後の前記n個のバッファ内の対訳文対のn種類の集合を、n種類に区別して蓄積するクラスタ蓄積部を具備するクラスタ生成装置。
  2. 前記言語モデル取得部が取得する確率情報は、
    1以上の対訳文対中に一の用語が出現する確率である請求項1記載のクラスタ生成装置。
  3. n(nは2以上の整数)種類の区別された言語モデルであり、用語および当該用語が1以上の対訳文対中に出現する確率についての情報である確率情報を用語毎に有する言語モデルを格納している言語モデル格納部と、
    翻訳対象の第一の言語の文を受け付ける受付部と、
    前記受付部が受け付けた文を取得し、当該文を1以上の用語に分割し、記憶媒体に配置する文分割部と、
    前記言語モデル格納部の各言語モデルを読み出し、当該各言語モデルを用いて、前記文分割部が取得した1以上の各用語が、各言語モデルが有する1以上の対訳文対中に出現する確率に関する情報である翻訳原文出現確率を、言語モデル毎に算出し、記憶媒体に配置する翻訳原文出現確率算出部と、
    前記言語モデル毎に算出されたnの翻訳原文出現確率を用いて、最も出現する確率が高い言語モデルを決定する言語モデル決定部と、
    前記言語モデル決定部が決定した言語モデルを、前記言語モデル格納部から読み出し、当該読み出した言語モデルを用いて、前記前記受付部が受け付けた文を第二の言語の文に翻訳し、当該翻訳結果を出力する翻訳部を具備する翻訳装置。
  4. 前記言語モデル格納部が格納しているn種類の区別された各言語モデルは、
    請求項1または請求項2記載のクラスタ生成装置が蓄積したn種類の各対訳文対の集合から構成された情報であり、n種類の各対訳文対の集合が有する各対訳文対を1以上の用語に分割し、当該1以上の用語が対訳文対の集合中に出現する確率についての情報である確率情報を用語毎に算出されることにより得られた情報である請求項3記載の翻訳装置。
  5. 前記確率情報は、
    単語3−gramの確率である請求項3または請求項4記載の翻訳装置。
  6. 前記翻訳部は、
    前記言語モデル決定部が決定した言語モデル(T)を、前記言語モデル格納部から読み出し、当該読み出した言語モデル(T)において、P(e|f,T)P(f|T)[eは入力された翻訳対象の文、fは目的言語の文]を最大にする第二の言語の文(f)を、前記言語モデル(T)が有する1以上の対訳文対が有する第二の言語の翻訳文から選択し、出力する請求項3から請求項5いずれか記載の翻訳装置。
  7. 第一の言語の文と、当該文の第二の言語への翻訳文の対の情報である対訳文対を複数、記憶媒体に格納しており、
    コンピュータに、
    前記記憶媒体から複数の対訳文対を読み出し、当該複数の対訳文対をn個のバッファに配置する対訳文対配置ステップと、
    前記バッファ毎に、前記対訳文対配置ステップが配置する各バッファ中の1以上の対訳文対を1以上の用語に分割し、当該1以上の対訳文対中に用語が出現する確率についての情報である確率情報を取得し、用語と当該用語に対応する確率情報を有する用語出現確率情報を1以上有する情報である言語モデルを取得し、記録媒体上に配置する言語モデル取得ステップと、
    前記言語モデル取得ステップで取得した1以上の用語出現確率情報が有する1以上の確率情報を用いて、前記n個のバッファ毎に、用語の出現の均一具合についての情報であるnのエントロピーを算出し、記憶媒体に配置するエントロピー算出ステップと、
    前記nのエントロピーを取得し、前記n個のバッファ全体の用語の出現の均一具合についての情報である総エントロピーを算出し、記憶媒体に配置する総エントロピー算出ステップと、
    前記n個のバッファのうちのいずれかのバッファ中のいずれかの対訳文対を読み出し、他の各バッファに移動する対訳文対移動ステップと、
    前記対訳文対移動ステップで対訳文対を各バッファに移動した後、バッファごとに、前記言語モデルを取得し、記録媒体上に配置させ、前記nのエントロピーを算出し、記憶媒体に配置させ、および総エントロピーを算出し、記憶媒体に配置させる第一制御ステップと、
    前記第一制御ステップにおける処理に対応して、バッファごとに、得られたnの総エントロピーを取得し、当該nの総エントロピーのうちで最も小さい総エントロピーに対応するバッファに、当該移動対象の対訳文対の移動先のバッファを決定し、当該バッファに前記移動対象の対訳文対を書き込む対訳文対移動先決定ステップと、
    前記対訳文対移動先決定ステップにおいて、全対訳文対について移動先を決定した後の最近の総エントロピーと、その前のサイクルにおいて、前記対訳文対移動先決定ステップで全対訳文対について、移動先を決定した後の総エントロピーである直前の総エントロピーを用いて、エントロピーの変化量を算出し、記録媒体に配置する変化量算出ステップと、
    前記変化量算出ステップで算出した変化量が閾値より小さいか否か、または閾値以下であるか否かを判断する変化判断ステップと、
    前記変化判断ステップで、変化量が閾値より小さい、または閾値以下であると判断するまで、前記対訳文対移動ステップにおける処理、前記第一制御ステップにおける処理、および前記対訳文対移動先決定ステップにおける処理を繰り返させ、
    前記対訳文対移動先決定ステップにおいて最後にバッファに対訳文対を書き込んだ後の前記n個のバッファ内の対訳文対のn種類の集合を、n種類に区別して蓄積するクラスタ蓄積ステップを実行させるためのプログラム。
  8. n(nは2以上の整数)種類の区別された言語モデルであり、用語および当該用語が1以上の対訳文対中に出現する確率についての情報である確率情報を用語毎に有する言語モデルを記録媒体に格納しており、
    コンピュータに、
    翻訳対象の第一の言語の文を受け付ける受付ステップと、
    前記受付ステップで受け付けた文を取得し、当該文を1以上の用語に分割し、記憶媒体に配置する文分割ステップと、
    前記記録媒体の各言語モデルを読み出し、当該各言語モデルを用いて、前記文分割ステップで取得した1以上の各用語が、各言語モデルが有する1以上の対訳文対中に出現する確率に関する情報である翻訳原文出現確率を、言語モデル毎に算出し、記憶媒体に配置する翻訳原文出現確率算出ステップと、
    前記言語モデル毎に算出されたnの翻訳原文出現確率を用いて、最も出現する確率が高い言語モデルを決定する言語モデル決定ステップと、
    前記言語モデル決定ステップで決定した言語モデルを、前記記録媒体から読み出し、当該読み出した言語モデルを用いて、前記前記受付ステップで受け付けた文を第二の言語の文に翻訳し、当該翻訳結果を出力する翻訳ステップを実行させるためのプログラム。
  9. 対訳文対配置部、言語モデル取得部、エントロピー算出部、総エントロピー算出部、対訳文対移動部、第一制御部、対訳文対移動先決定部、変化量算出部、変化判断部、第二制御部、およびクラスタ蓄積部により実現され、n種類の分類された1以上の対訳文対の集合からなるnのクラスタを製造する方法であって、
    第一の言語の文と、当該文の第二の言語への翻訳文の対の情報である対訳文対を複数、記憶媒体に格納しており、
    前記対訳文対配置部が、前記記憶媒体から複数の対訳文対を読み出し、当該複数の対訳文対をn個のバッファに配置する対訳文対配置ステップと、
    前記言語モデル取得部が、前記バッファ毎に、前記対訳文対配置ステップで配置する各バッファ中の1以上の対訳文対を1以上の用語に分割し、当該1以上の対訳文対中に用語が出現する確率についての情報である確率情報を取得し、用語と当該用語に対応する確率情報を有する用語出現確率情報を1以上有する情報である言語モデルを取得し、記録媒体上に配置する言語モデル取得ステップと、
    前記エントロピー算出部が、前記言語モデル取得ステップで取得した1以上の用語出現確率情報が有する1以上の確率情報を用いて、前記n個のバッファ毎に、用語の出現の均一具合についての情報であるnのエントロピーを算出し、記憶媒体に配置するエントロピー算出ステップと、
    前記総エントロピー算出部が、前記nのエントロピーを取得し、前記n個のバッファ全体の用語の出現の均一具合についての情報である総エントロピーを算出し、記憶媒体に配置する総エントロピー算出ステップと、
    前記対訳文対移動部が、前記n個のバッファのうちのいずれかのバッファ中のいずれかの対訳文対を読み出し、他の各バッファに移動する対訳文対移動ステップと、
    前記第一制御部が、前記対訳文対移動ステップで対訳文対を各バッファに移動した後、バッファごとに、前記言語モデルを取得し、記録媒体上に配置させ、前記nのエントロピーを算出し、記憶媒体に配置させ、および総エントロピーを算出し、記憶媒体に配置させる第一制御ステップと、
    前記対訳文対移動先決定部が、前記第一制御ステップにおける処理に対応して、バッファごとに、得られたnの総エントロピーを取得し、当該nの総エントロピーのうちで最も小さい総エントロピーに対応するバッファに、当該移動対象の対訳文対の移動先のバッファを決定し、当該バッファに前記移動対象の対訳文対を書き込む対訳文対移動先決定ステップと、
    前記変化量算出部が、前記対訳文対移動先決定ステップにおいて、全対訳文対について移動先を決定した後の最近の総エントロピーと、その前のサイクルにおいて、前記対訳文対移動先決定ステップで全対訳文対について、移動先を決定した後の総エントロピーである直前の総エントロピーを用いて、エントロピーの変化量を算出し、記録媒体に配置する変化量算出ステップと、
    前記変化判断部が、前記変化量算出ステップで算出した変化量が閾値より小さいか否か、または閾値以下であるか否かを判断する変化判断ステップと、
    前記第二制御部が、前記変化判断ステップで、変化量が閾値より小さい、または閾値以下であると判断するまで、前記対訳文対移動ステップにおける処理、前記第一制御ステップにおける処理、および前記対訳文対移動先決定ステップにおける処理を繰り返させ、
    前記クラスタ蓄積部が、前記対訳文対移動先決定ステップにおいて最後にバッファに対訳文対を書き込んだ後の前記n個のバッファ内の対訳文対のn種類の集合を、n種類に区別して蓄積するクラスタ蓄積ステップを具備するクラスタの製造方法。
JP2006237639A 2006-09-01 2006-09-01 翻訳装置、クラスタ生成装置、クラスタの製造方法、およびプログラム Expired - Fee Related JP5067777B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006237639A JP5067777B2 (ja) 2006-09-01 2006-09-01 翻訳装置、クラスタ生成装置、クラスタの製造方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006237639A JP5067777B2 (ja) 2006-09-01 2006-09-01 翻訳装置、クラスタ生成装置、クラスタの製造方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2008059440A JP2008059440A (ja) 2008-03-13
JP5067777B2 true JP5067777B2 (ja) 2012-11-07

Family

ID=39242068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006237639A Expired - Fee Related JP5067777B2 (ja) 2006-09-01 2006-09-01 翻訳装置、クラスタ生成装置、クラスタの製造方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP5067777B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5288371B2 (ja) * 2008-06-03 2013-09-11 独立行政法人情報通信研究機構 統計的機械翻訳装置
JP5516200B2 (ja) 2009-08-05 2014-06-11 信越化学工業株式会社 パターン形成方法、化学増幅ポジ型レジスト材料、及び、レジスト変性用組成物
WO2014108208A1 (en) * 2013-01-11 2014-07-17 Qatar Foundation System and method of machine translation
JP7122835B2 (ja) * 2018-02-14 2022-08-22 株式会社Nttドコモ 機械翻訳装置、翻訳学習済みモデル及び判定学習済みモデル

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038406A (ja) * 2002-07-01 2004-02-05 Advanced Telecommunication Research Institute International 複数個の翻訳結果から最良訳を選択する方法、最良訳を選択するための回帰木データを生成する方法、最良訳選択型の機械翻訳プログラム、回帰木生成プログラム、および回帰木データを記憶した記憶媒体

Also Published As

Publication number Publication date
JP2008059440A (ja) 2008-03-13

Similar Documents

Publication Publication Date Title
JP4215418B2 (ja) 単語予測方法、音声認識方法、その方法を用いた音声認識装置及びプログラム
JP7149560B2 (ja) リクエスト言換システム、リクエスト言換モデル及びリクエスト判定モデルの訓練方法、及び対話システム
JP6493866B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6066354B2 (ja) 信頼度計算の方法及び装置
KR101004560B1 (ko) 음성 인식 시스템 모델링 방법 및 컴퓨터 판독가능 기록 매체
JP5413622B2 (ja) 言語モデル作成装置、言語モデル作成方法、およびプログラム
US20150095017A1 (en) System and method for learning word embeddings using neural language models
JP3768205B2 (ja) 形態素解析装置、形態素解析方法及び形態素解析プログラム
CN110704621A (zh) 文本处理方法、装置及存储介质和电子设备
CN112825249B (zh) 语音处理方法和设备
KR20060044753A (ko) 삭제된 보간 n-그램 언어 모델의 arpa 표준 형식 표현
US20100100379A1 (en) Voice recognition correlation rule learning system, voice recognition correlation rule learning program, and voice recognition correlation rule learning method
WO2019167296A1 (ja) 自然言語処理のための装置、方法及びプログラム
JP2020024277A (ja) データ・セグメンテーション装置
JP5067777B2 (ja) 翻訳装置、クラスタ生成装置、クラスタの製造方法、およびプログラム
JP7326596B2 (ja) 音声データ作成装置
JP4325370B2 (ja) 文書関連語彙獲得装置及びプログラム
Khassanov et al. Enriching rare word representations in neural language models by embedding matrix augmentation
WO2012134396A1 (en) A method, an apparatus and a computer-readable medium for indexing a document for document retrieval
Rouhe et al. An equal data setting for attention-based encoder-decoder and HMM/DNN models: A case study in Finnish ASR
JP4113204B2 (ja) 機械翻訳装置、その方法およびプログラム
JP4405542B2 (ja) 音素モデルをクラスタリングする装置、方法およびプログラム
JP2006107353A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP7556395B2 (ja) データ処理装置、データ処理方法及びデータ処理プログラム
EP4354428A1 (en) Method for determining content associated with voice signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120808

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees