JP2006099208A - Statistical machine translation apparatus and statistical machine translation program - Google Patents
Statistical machine translation apparatus and statistical machine translation program Download PDFInfo
- Publication number
- JP2006099208A JP2006099208A JP2004281636A JP2004281636A JP2006099208A JP 2006099208 A JP2006099208 A JP 2006099208A JP 2004281636 A JP2004281636 A JP 2004281636A JP 2004281636 A JP2004281636 A JP 2004281636A JP 2006099208 A JP2006099208 A JP 2006099208A
- Authority
- JP
- Japan
- Prior art keywords
- phrase
- model
- translation
- language
- english
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013519 translation Methods 0.000 title claims abstract description 134
- 230000011218 segmentation Effects 0.000 claims abstract description 63
- 238000010845 search algorithm Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 21
- 230000014616 translation Effects 0.000 description 119
- 238000000034 method Methods 0.000 description 26
- 238000004422 calculation algorithm Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 10
- 238000007476 Maximum Likelihood Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004836 empirical method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
【課題】 対訳フレーズを利用した統計機械翻訳装置において、より高い精度で翻訳を行うことができる装置を提供する。
【解決手段】 日英機械翻訳のデコーダ42は、日本語フレーズNグラムモデル56、英語フレーズNグラムモデル58、英語言語モデル60、および英語から日本語へのフレーズ翻訳モデル68と、日本語の入力文40に対し可能な全てのセグメンテーションを行なうセグメンテーション処理部80と、得られたセグメンテーションにしたがい、モデル68、56、58および60を用い、英語のフレーズを任意の順序で確率付きで並べたフレーズシーケンスを表すラッティスを作成するラッティス作成部84と、ラッティス作成部84が作成したラッティスのうちで最も確率の高い上位M個の経路を探索して出力するA*探索処理部88とを含む。
【選択図】 図3PROBLEM TO BE SOLVED: To provide an apparatus capable of performing translation with higher accuracy in a statistical machine translation apparatus using a parallel translation phrase.
A Japanese-English machine translation decoder includes a Japanese phrase N-gram model 56, an English phrase N-gram model 58, an English language model 60, an English-to-Japanese phrase translation model 68, and Japanese input. A segmentation processing unit 80 that performs all possible segmentations on the sentence 40, and a phrase sequence in which English phrases are arranged with probability in any order using the models 68, 56, 58, and 60 in accordance with the obtained segmentation. And a A * search processing unit 88 that searches for and outputs the top M routes with the highest probability among the lattices created by the lattice creation unit 84.
[Selection] Figure 3
Description
この発明は機械翻訳装置に関し、特に、統計機械翻訳において対訳コーパス中に現れるフレーズの対訳を生かしながら効率的に翻訳を行なう機械翻訳装置に関する。なお、本明細書において「フレーズ」とは、1または連続する複数の単語のまとまり(単語列)のことをいう。 The present invention relates to a machine translation apparatus, and more particularly, to a machine translation apparatus that efficiently translates using a parallel translation of a phrase that appears in a parallel corpus in statistical machine translation. In the present specification, “phrase” means a group of one or a plurality of consecutive words (word string).
機械翻訳を統計的に行なう立場では、非特許文献1において提案されているように、翻訳のソース言語の文fを、ターゲット言語eの文に翻訳するという問題は、次の最大化問題として定式化される。
From the standpoint of statistically performing machine translation, as proposed in
しかし、従来の手法では、フレーズの翻訳対を求める際の方法が単純であって、式(3)にしたがってP(/fi|/eai)を推定しても、例えばフレーズの相互関係などについての条件が含まれていないため、翻訳の精度が低くなるという問題がある。 However, in the conventional method, the method for obtaining the phrase translation pair is simple. Even if P (/ f i | / e ai ) is estimated according to the equation (3), for example, the correlation between phrases, etc. Since the condition for is not included, there is a problem that the accuracy of translation is lowered.
それゆえに本発明の目的は、対訳フレーズを利用した統計機械翻訳装置において、より高い精度で翻訳を行なうことができる機械翻訳装置を提供することである。 Therefore, an object of the present invention is to provide a machine translation device that can perform translation with higher accuracy in a statistical machine translation device that uses parallel phrases.
本発明の他の目的は、対訳フレーズを利用した統計機械翻訳装置において、フレーズのセグメンテーションの推定とフレーズの対訳との推定を連携させて行なうことにより、より高い精度で翻訳を行なうことができる機械翻訳装置を提供することである。 Another object of the present invention is to provide a machine capable of performing translation with higher accuracy by coordinating estimation of phrase segmentation and estimation of phrase translation in a statistical machine translation apparatus using parallel translation phrases. It is to provide a translation device.
本発明の第1の局面に係る機械翻訳装置は、ソース言語の入力文をターゲット言語に翻訳する翻訳装置であって、ソース言語のフレーズNグラムモデル、ターゲット言語のフレーズNグラムモデルおよび所定の言語モデル、およびターゲット言語からソース言語へのフレーズによる翻訳モデルを記憶するための記憶手段と、ソース言語の入力文に対するセグメンテーションを行なうためのセグメンテーション手段と、セグメンテーション手段により得られたセグメンテーションにしたがい、記憶手段に記憶されたソース言語のフレーズNグラムモデル、ターゲット言語のフレーズNグラムモデルおよび言語モデル、ならびにターゲット言語からソース言語へのフレーズによる翻訳モデルを用いて、ターゲット言語のフレーズを任意の順序で、かつソース言語のフレーズNグラムモデル、ターゲット言語のフレーズNグラムモデルおよび言語モデル、ならびにフレーズによる翻訳モデルを用いて得た確率を各ノードとエッジとに付して並べた、フレーズのラッティスを作成するためのラッティス作成手段と、ラッティス作成手段により作成されたラッティスのうちで、最大確率を与える上位M個のフレーズシーケンスを探索するための探索手段とを含む。 A machine translation device according to a first aspect of the present invention is a translation device that translates an input sentence in a source language into a target language, the phrase N-gram model in the source language, the phrase N-gram model in the target language, and a predetermined language A storage means for storing a model and a translation model by a phrase from the target language to the source language, a segmentation means for performing segmentation on the input sentence of the source language, and a storage means in accordance with the segmentation obtained by the segmentation means Source language phrases N-gram model, target language phrases N-gram model and language model, and target language-to-source language phrase translation model, and target language phrases in any order, Phrase lattices are created by placing the probabilities obtained by using the phrase N-gram model of one source language, the phrase N-gram model and language model of the target language, and the translation model by phrase, with each node and edge aligned. And a search means for searching for the top M phrase sequences giving the maximum probability among the lattices created by the lattice creation means.
フレーズによる翻訳モデルという、従来にない概念を用い、ソース言語の入力文が与えられると、当該入力文に対する翻訳である確率が統計的に最も高い上位M個の翻訳文を出力することができる。単語レベルのみではなく、フレーズレベルでの確率をも用いるため、入力文と翻訳文との間のフレーズの対応関係を直接的に用い、精度の高い翻訳を行なうことができる。 When an input sentence in a source language is given using an unprecedented concept called a phrase translation model, the top M translation sentences having the highest statistical probability of translation for the input sentence can be output. Since the probability not only at the word level but also at the phrase level is used, it is possible to perform translation with high accuracy by directly using the correspondence between phrases between the input sentence and the translated sentence.
好ましくは、探索手段は、ラッティス作成手段により作成されたラッティスのうちで、最大確率を与える上位M個のフレーズシーケンスをA*探索アルゴリズムにより探索するための手段を含む。 Preferably, the search means includes means for searching the top M phrase sequences giving the maximum probability among the lattices created by the lattice creation means using the A * search algorithm.
さらに好ましくは、ラッティス作成手段は、所定の確率条件を充足するノードのみを用いてラッティスを作成するための手段を含む。 More preferably, the lattice creation means includes means for creating a lattice using only nodes satisfying a predetermined probability condition.
フレーズによる翻訳モデルは、ターゲット言語のフレーズNグラムモデル、ソース言語によるフレーズセグメンテーションモデル、およびターゲット言語からソース言語へのフレーズ翻訳モデルの組合せにより形成されるようにしてもよい。 The phrase-based translation model may be formed by a combination of a target language phrase N-gram model, a source language phrase segmentation model, and a target language-to-source language phrase translation model.
本発明の第2の局面に係る統計機械翻訳プログラムは、コンピュータにより実行されると、上記したいずれかの機械翻訳装置として当該コンピュータを動作させる統計機械翻訳プログラムである。 The statistical machine translation program according to the second aspect of the present invention is a statistical machine translation program that, when executed by a computer, causes the computer to operate as one of the machine translation devices described above.
[基本的概念]
従来の技術では、翻訳対を求める方法と、式(3)におけるP(/fi|/eai)の推定とが別の問題となっており、そのために精度の向上が望めないという問題があったと考えられる。本実施の形態では、以下のような思想に基づいてフレーズを用いた機械翻訳を行なう。すなわち、従来の技術で用いられていた式(3)に代えて、新たに/fおよび/eという変数を導入し、次の式(4)によってP(f|e)を算出することにより、フレーズ翻訳に相当する関係を直接的に翻訳に反映させる。
[Basic concept]
In the conventional technique, the method for obtaining a translation pair and the estimation of P (/ f i | / e ai ) in Equation (3) are different problems, and therefore, there is a problem that improvement in accuracy cannot be expected. It is thought that there was. In the present embodiment, machine translation using phrases is performed based on the following idea. That is, instead of the equation (3) used in the prior art, new variables / f and / e are introduced, and P (f | e) is calculated by the following equation (4): The relationship corresponding to phrase translation is directly reflected in the translation.
式(4)において、P(f,/f,/e|e)はさらに3つの項に分解される。 In equation (4), P (f, / f, / e | e) is further decomposed into three terms.
−フレーズNグラムモデル−
フレーズNグラムモデルは以下のように近似できる。
-Phrase N-gram model-
The phrase N-gram model can be approximated as follows.
フレーズNグラムモデルは、文eに対し可能な全てのフレーズセグメンテーションを、図1に示すようなラッティス構造/Eに広げることで、前向き・後向きアルゴリズムを使用して容易に算出できる。図1に示すように、このラッティス内の各ノードは文e内の特定のフレーズ/Ei(i=1〜6)を表しており、これらノード/E1〜/E6はエッジで互いに結ばれている。また各エッジには、当該エッジの前端のノードに対応するフレーズとその後端のノードに対応するフレーズとが連続して生ずる確率が付されている。例えばノード/Eiとその直前のノード/Ei'とは、確率P(/Ei|/Ei')が付されたエッジにより結ばれている。図1の例で言えば、ノード/E2とその直前のノード(図1では/E1)とを結ぶエッジには確率P(/E2|/E1)が付されている。 The phrase N-gram model can be easily calculated using a forward / backward algorithm by extending all possible phrase segmentations for sentence e to a lattice structure / E as shown in FIG. As shown in FIG. 1, each node in the lattice represents a specific phrase / E i (i = 1 to 6) in the sentence e, and these nodes / E 1 to / E 6 are connected to each other by edges. It is. Further, each edge is given a probability that a phrase corresponding to the node at the front end of the edge and a phrase corresponding to the node at the rear end are successively generated. For example, the node / E i and the immediately preceding node / E i ′ are connected by an edge with a probability P (/ E i | / E i ′ ). In the example of FIG. 1, the probability P (/ E 2 | / E 1 ) is attached to the edge connecting the node / E 2 and the node immediately preceding it (/ E 1 in FIG. 1 ).
P(/Ei|/Ei')の値の推定は以下の手順により行なわれる。 The value of P (/ E i | / E i ′ ) is estimated by the following procedure.
1)確率テーブルを何らかの一様な値で初期化する。 1) Initialize the probability table with some uniform value.
2)学習コーパス内の各文eに対し、前向き・後向きアルゴリズムを用い、ラッティス内における事後確率P(/Ei,/Ei'|e)を推定する。 2) For each sentence e in the learning corpus, the forward / backward algorithm is used to estimate the posterior probability P (/ E i , / E i ′ | e) in the lattice.
3)推定された事後確率を単語の発生頻度として用いて最尤アルゴリズムを用いて事前確率を以下のように算出する。 3) Using the estimated posterior probability as the word occurrence frequency, the prior probability is calculated using the maximum likelihood algorithm as follows.
−フレーズセグメンテーションモデル−
式(4)に示されたモデル化によると、P(f|/f,/e,e)は、フレーズセグメンテーションがされた文/fをいかにして並べ替えればソース文fが得られるか、を示すディストーション確率とみなすことができる。本実施の形態では、これに代えて、このモデルを特定のフレーズセグメント/fjが文f内に生ずる尤度を表すものとみなす。すなわち、
-Phrase segmentation model-
According to the modeling shown in the equation (4), P (f | / f, / e, e) can be obtained as a source sentence f by rearranging the phrase segmented sentence / f, Can be regarded as a distortion probability. In the present embodiment, instead of this, this model is regarded as representing the likelihood that a specific phrase segment / f j will occur in the sentence f. That is,
−フレーズ翻訳モデル−
フレーズ翻訳モデルは、フレーズ翻訳が各フレーズの翻訳の積として得られるように近似したものである。
-Phrase translation model-
The phrase translation model is approximated so that the phrase translation is obtained as a product of the translation of each phrase.
フレーズ翻訳モデルの一つの実現形式としては、学習コーパスに現れる全てのフレーム翻訳対を、それらの現れる確率とともにテーブル形式で格納したものが考えられる。 As one implementation form of the phrase translation model, one in which all frame translation pairs appearing in the learning corpus are stored in a table form together with their appearance probabilities.
−フレーズによるHMM統計翻訳−
上記したフレーズNグラムモデル、フレーズセグメンテーションモデル、およびフレーズ翻訳モデルを全て統合すると、式(4)は次のように書換えることができる。
-HMM statistical translation by phrase-
When all of the above phrase N-gram model, phrase segmentation model, and phrase translation model are integrated, Equation (4) can be rewritten as follows.
図2においてラッティス/Fにおいて生ずるフレーズ/F2は、フレーズ/E3からは確率P(/F2|/E3)で観測されるということになる。ラッティス/Eにおいてフレーズ/E1の次にフレーズ/E3が続く確率をP(/E3|/E1)、文fのセグメンテーションにおいてフレーズ/F2が生ずる確率をP(/F2|f)とすれば、これらを乗算することで式(12)のうちi=3、j=2に相当する項の値が得られる。これをラッティス/Eおよびラッティス/F内の全てのノード(フレーズ)の組合せに対し計算し、合計することで式(4)の値が近似できる。 In FIG. 2, the phrase / F 2 generated in the lattice / F is observed with the probability P (/ F 2 | / E 3 ) from the phrase / E 3 . Lattice / the probability that the next phrase / E 3 followed by phrases / E 1 P in E (/ E 3 | / E 1), the probability that phrases / F 2 is generated in the segmentation of the sentence f P (/ F 2 | f ), The values of the terms corresponding to i = 3 and j = 2 in equation (12) are obtained by multiplying them. By calculating this for all combinations of nodes (phrases) in Lattice / E and Lattice / F and adding them up, the value of Equation (4) can be approximated.
フレーズによるHMM構造は、文書と要約との対応を付ける、という問題について、非特許文献5において既に提案されている。非特許文献5に記載の手法では、ジャンプの確率は状態遷移として明確にエンコードされており、その確率は、単語による統計翻訳モデルにおけるアライメント確率にほぼ対応していると言える。ジャンプまたはアライメント確率を明確な形で使用すると、翻訳のモデル化を完全なものにすることができるが、そのかわりにフレーズによるHMM構造では学習の際に広大なサーチ空間が必要になるという問題がある。 Non-Patent Document 5 has already proposed a problem that the phrase-based HMM structure associates a document with a summary. In the method described in Non-Patent Document 5, the jump probability is clearly encoded as a state transition, and it can be said that the probability substantially corresponds to the alignment probability in the statistical translation model using words. The use of jumps or alignment probabilities in a clear way can help complete translation modeling, but instead the phrase-based HMM structure has the problem of requiring a vast search space for learning. is there.
本実施の形態に係る手法では、状態遷移はフレーズNグラムモデルと、フレーズバイグラムの連結確率とを用いているが、フレーズアライメント確率については無視している。したがって、フレーズによるHMM翻訳モデルは不完全なモデルということもできる。しかし、その単純さのゆえにパラメータの推定を高速に行なうことができる。 In the method according to this embodiment, the state transition uses a phrase N-gram model and a phrase bigram connection probability, but ignores the phrase alignment probability. Accordingly, it can be said that the phrase-based HMM translation model is an incomplete model. However, because of its simplicity, parameter estimation can be performed at high speed.
−パラメータ推定−
フレーズによるHMM翻訳モデルに対するパラメータは、既に説明したように前向き・後向きアルゴリズムを用いて効率的に推定できる。
-Parameter estimation-
As described above, the parameters for the phrase-based HMM translation model can be efficiently estimated using the forward / backward algorithm.
前向き・後向きアルゴリズムの処理では、二つの補助変数α(ei1 i2,fj1 j2)とβ(ei1 i2,fj1 j2)とを定義する。α(ei1 i2、fj1 j2)は、e1 i1-1に存在する全てのフレーズの組合せの出力後にフレーズei1 i2がfj1 j2に翻訳される確率の前向き推定値を表す。同様にβ(ei1 i2,fj1 j2)は、ei2+1 lの右側の全てのフレーズの組合せを考慮したときの、フレーズei1 i2がフレーズfj1 j2に翻訳される確率の後向き推定値である。 In the process of the forward / backward algorithm, two auxiliary variables α (e i1 i2 , f j1 j2 ) and β (e i1 i2 , f j1 j2 ) are defined. α (e i1 i2 , f j1 j2 ) represents a forward estimate of the probability that the phrase e i1 i2 is translated into f j1 j2 after output of all the combinations of phrases present in e 1 i1-1 . Similarly, β (e i1 i2 , f j1 j2 ) is a backward estimate of the probability that the phrase e i1 i2 is translated into the phrase f j1 j2 when all the combinations of phrases on the right side of e i2 + 1 l are considered. Value.
したがって、前向き・後向きアルゴリズムは、次の漸化式を解くという形に定式化される。 Therefore, the forward / backward algorithm is formulated in the form of solving the following recurrence formula.
−フレーズセグメントの誘導−
式(13)および(14)は、ラッティス構造/Eの左側と右側とにおいてそれぞれ全ての可能な経路についての合計という処理と、/Fに対し可能な全てのセグメンテーションに関する合計という処理とを含んでいる。この処理は仮にダイナミックプログラミングを使用しても依然として膨大な計算を必要とするので、本実施の形態では、考慮するセグメンテーションを予め限定する。
-Phrase segment induction-
Equations (13) and (14) include the summation process for all possible paths, respectively, on the left and right sides of the lattice structure / E, and the summation process for all possible segmentations for / F. Yes. Since this processing still requires enormous calculation even if dynamic programming is used, the segmentation to be considered is limited in advance in this embodiment.
フレーズ対を導出するにあたってはまず、バイリンガル学習コーパス内において見出し得る全てのバイリンガルフレーズ対について、次の式に示す二つのフレーズ翻訳確率の積を用いる。 In deriving a phrase pair, first, the product of two phrase translation probabilities shown in the following equation is used for all the bilingual phrase pairs that can be found in the bilingual learning corpus.
さらに、それ以外のフレーズについては、GIZA++(非特許文献2)により計算したP(e|f)およびP(f|e)という2方向のモデルを用いたビタビ単語アライメントの積集合/和集合に基づき網羅的に導出する。 Furthermore, for other phrases, the product set / union of Viterbi word alignment using the two-way model P (e | f) and P (f | e) calculated by GIZA ++ (Non-patent Document 2). Based on exhaustive derivation.
フレーズ翻訳対の抽出後、それらに対する単言語フレーズレキシコンを抽出し、ソース文およびターゲット文に対する可能なセグメンテーションとして使用する。 After the phrase translation pairs are extracted, monolingual phrase lexicons for them are extracted and used as possible segmentation for the source and target sentences.
−デコーダ−
最良訳を算出するための決定規則は、非特許文献8において示されている、翻訳モデルの全ての構成要素の対数線形和によって行なう。
-Decoder-
The decision rule for calculating the best translation is performed by the logarithmic linear sum of all the components of the translation model shown in Non-Patent Document 8.
デコーダは単語グラフによるデコーダ(非特許文献11)に類似したものであり、サブモデルの複雑な構造を組込むため、マルチパスでコーディングを行なえるようにしたものである。デコードの最初のパスではビームサーチを用いて入力文に対する翻訳の単語グラフ、すなわちラッティスを生成する。このパスでは、フレーズによるHMM翻訳モデルのすべてのサブモデルを、ターゲット言語の単語によるトライグラム言語モデルおよびクラス5グラム言語モデルとともに使用する。次のパスでは、この単語グラフに対してA*探索法を用いて翻訳のNベストパスを探索する。 The decoder is similar to a decoder based on a word graph (Non-patent Document 11) and incorporates a complicated structure of a sub model so that coding can be performed in multi-pass. In the first pass of decoding, a beam search is used to generate a translation word graph, or lattice, for the input sentence. In this pass, all sub-models of the phrase-based HMM translation model are used with a trigram language model and a class 5 gram language model with words in the target language. In the next pass, the N best path of translation is searched for this word graph using the A * search method.
[構成]
図3に、本実施の形態に係る統計機械翻訳システム20のブロック図を示す。この統計機械翻訳システム20は、日本語の文(f)を英語の文(e)に翻訳する日英翻訳装置である。つまり、本実施の形態ではソース言語fは日本語、ターゲット言語eは英語ということになる。
[Constitution]
FIG. 3 shows a block diagram of the statistical machine translation system 20 according to the present embodiment. This statistical machine translation system 20 is a Japanese-English translation device that translates a Japanese sentence (f) into an English sentence (e). That is, in this embodiment, the source language f is Japanese and the target language e is English.
図3を参照して、統計機械翻訳システム20は、日本語の単言語コーパス(以下「日本語コーパス」と呼ぶ。)30と、英語の単言語コーパス(以下「英語コーパス」と呼ぶ。)34と、日本語および英語の対訳コーパス32と、日本語コーパス30、対訳コーパス32、および英語コーパス34から日本語フレーズNグラムモデル56、英語フレーズNグラムモデル58、英語言語モデル60、およびフレーズ翻訳モデル68を作成するためのフレーズによるHMM翻訳モデル作成部36と、フレーズによるHMM翻訳モデル作成部36により作成された日本語フレーズNグラムモデル56、英語フレーズNグラムモデル58、英語言語モデル60、およびフレーズ翻訳モデル68を用いて、日本語の入力文40に対し翻訳を行ない、英語の訳文44を出力するためのデコーダ(統計機械翻訳装置)42とを含む。なお図3に示す統計機械翻訳システム20では、フレーズNグラムとしてフレーズバイグラムを用いる。また、英語フレーズNグラムモデル58と、日本語フレーズNグラムモデル56と、フレーズ翻訳モデル68とは、フレーズによるHMM翻訳モデル38を構成する。
Referring to FIG. 3, the statistical machine translation system 20 includes a Japanese monolingual corpus (hereinafter referred to as “Japanese corpus”) 30 and an English monolingual corpus (hereinafter referred to as “English corpus”) 34. Japanese and English
フレーズによるHMM翻訳モデル作成部36は、日本語コーパス30から日本語フレーズNグラムモデル56を作成するための日本語フレーズNグラムモデル作成部50と、英語コーパス34から英語フレーズNグラムモデル58を作成するための英語フレーズNグラムモデル作成部52と、英語コーパス34から英語言語モデル60を作成するための英語言語モデル作成部54とを含む。英語言語モデル60は、図示してはいないが、前述したとおり英語単語トライグラム言語モデルと、英語のクラス5グラム言語モデルとを含む。なおクラスNグラム言語モデルとは品詞に着目した単語Nグラム言語モデルであり、同一の品詞の単語は同じ単語であるとみなして作成したNグラム言語モデルである。
The phrase-based HMM translation
なお、日本語フレーズNグラムモデル作成部50は、日本語フレーズNグラムモデル56の作成にあたり、日本語コーパス30に出現するNグラムのうち上位の所定個数のみを採用すること、および対訳コーパス32にフレーズ対として出現する日本語Nグラムのみを採用すること、という制約にしたがっている。同様に英語フレーズNグラムモデル作成部52は、英語フレーズNグラムモデル58の作成にあたって、英語コーパス34に出現するNグラムのうち上位の所定個数のみを採用すること、対訳コーパス32に出現するフレーズ対として出現する英語Nグラムのみを採用すること、という制約にしたがっている。
It should be noted that the Japanese phrase N-gram
フレーズによるHMM翻訳モデル作成部36はさらに、日本語フレーズNグラムモデル56に基づき、前述した手法により日本語のフレーズセグメンテーションモデル66を作成するためのフレーズセグメンテーションモデル作成部62と、英語フレーズNグラムモデル58およびフレーズセグメンテーションモデル66を用いてフレーズ翻訳モデル68を構成するHMMのパラメータの推定を行なうHMM学習部70とを含む。
The phrase-based HMM translation
一方デコーダ42は、日本語の入力文40が与えられると、入力文40に対して可能な全てのセグメンテーションを行なうためのセグメンテーション処理部80と、セグメンテーション処理部80により作成されたセグメンテーションをすべて記憶するためのセグメンテーション記憶部82と、セグメンテーション記憶部82に記憶された、入力文40の全セグメンテーションに基づき、入力文40に対する翻訳フレーズからなるラッティスを作成するためのラッティス作成部84とを含む。ラッティス作成部84は、ラッティス作成にあたって、フレーズ翻訳モデル68を用いて、セグメンテーション記憶部82に記憶されている日本語の各フレーズを対応する英語のフレーズに置換し、さらにそれら英語のフレーズを任意の順序で組合せてラッティスを作成し、日本語フレーズNグラムモデル56、英語フレーズNグラムモデル58、および英語言語モデル60を加えて使用して、ラッティスの各エッジおよびノードに確率を割当てていく。なお、英語のフレーズによるラッティス作成時には探索空間が非常に広いので、ラッティス作成部84は上記した確率を用いたビームサーチを行ない、確率が大きなエッジおよびノードのみを残してラッティスの作成を行なう。
On the other hand, when the
デコーダ42はさらに、ラッティス作成部84により作成された確率付きの英語のフレーズからなるラッティスを記憶するためのラッティス記憶部86と、ラッティス記憶部86に記憶された確率付きの英語のラッティスに対しA*探索を行なうことにより、ラッティスの経路のうちスコアの高いM個をMベストの訳文44として出力するためのA*探索処理部88を含む。
The
図4に、英語フレーズNグラムモデル58の作成におけるP(/Ei|/Ei')の値の推定手順を示す。図4を参照して、まずステップ100において上記した確率を格納するための確率テーブルを何らかの一様な値で初期化する。ステップ102では繰返し制御変数iを0に初期化する。ステップ104で変数iに1を加算する。ステップ106で変数iの値が2を超えたか否かを判定する。変数iの値が2を超えていれば処理を終了する。変数iの値が2以下であればステップ108に進む。
FIG. 4 shows a procedure for estimating the value of P (/ E i | / E i ′ ) in creating the English phrase N-
ステップ108ではステップ110からステップ116までの処理を英語コーパス34(図3参照)内の各文に対し繰返す。
In
まずステップ110においてコーパス中の文に対して可能な全てのセグメンテーションをし、その結果に基づいてラッティスを作成する。ステップ112にて、このラッティス中の全てのエッジに図1に示すように確率を割当てる。ステップ114では、前向き・後向きアルゴリズムにより、各ノードの事後確率P(/Ei,/Ei'|e)を推定する。
First, in
ステップ116では以上の処理を全ての文に対して完了したか否かを判定する。まだ完了していなければステップ110以下の処理を繰返す。全ての文に対して完了した後、ステップ118において、ステップ114で推定された事後確率を単語の発生頻度として用い、最尤アルゴリズムによってフレーズNグラムモデルの事前確率を式(7)に示すように算出する。
In
続いて再度ステップ104に戻り、次の繰返しを行なう。本実施の形態では、上記した処理を2回繰返したところで処理を終了する。 Then, it returns to step 104 again and performs the next repetition. In the present embodiment, the processing ends when the above processing is repeated twice.
図5に、ある日本語の文Fに対するフレーズセグメンテーションモデルを算出する手順を示す。図5を参照して、まずステップ140で文Fに対して可能な全てのフレーズセグメンテーションを求め、ラッティスを作成する。ステップ142において、ステップ140により得られたラッティスに出現する全てのフレーズに対し、日本語フレーズNグラムモデル56を用い、前向き・後向きアルゴリズムによって前向き確率α、後向き確率βを算出する。ステップ144では、式(10)にしたがってP(/F|F)を計算する。この処理を全ての文に対して行なう。
FIG. 5 shows a procedure for calculating a phrase segmentation model for a Japanese sentence F. Referring to FIG. 5, first, in
図6に、フレーズ翻訳モデルを算出する手順を示す。図6を参照して、まずステップ160で、図3に示す対訳コーパス32内の全ての対訳文についてフレーズを単位としたラッティス対<F,E>を作成する。
FIG. 6 shows a procedure for calculating a phrase translation model. Referring to FIG. 6, first, in
ステップ162では、ステップ164〜ステップ170までの処理を繰返す。まずステップ164において、ソース文Fのラッティスにより、文Fの各セグメンテーション/Fに対する事後確率P(/F|F)を求める。ステップ166で、ターゲット文Eのラッティスで、セグメンテーション/Eとセグメンテーション/Fとを組合せたものに対する前向き確率α、後向き確率βを前向き・後向きアルゴリズムを用いて算出する。ステップ168では、こうして求めた確率をセグメンテーション/Eとセグメンテーション/Fとに含まれるフレーズの共起数としてカウントを加算する。
In
ステップ170では、上記したステップ164〜168までの処理が全ての<F,E>に対して行なわれたか否かを判定し、まだ行なわれていなければ再びステップ164から繰返す。
In
全ての<F,E>に対して処理が完了すると、ステップ172において、ステップ168で計算されたカウント値に基づき、P(/F|/E)を算出して処理を終了する。
When the processing is completed for all <F, E>, in
[動作]
以上に構成を説明した図3に示す統計機械翻訳システム20の動作について以下に説明する。統計機械翻訳システム20の動作には、以上の説明から明らかなように二つのフェーズがある。第1はフレーズ翻訳モデル68および関連する日本語フレーズNグラムモデル56、英語フレーズNグラムモデル58、英語言語モデル60を作成するフェーズである。第2は、こうして作成されたフレーズ翻訳モデル68、日本語フレーズNグラムモデル56、英語フレーズNグラムモデル58、および英語言語モデル60を用い、入力文40に対する翻訳を行なって訳文44を出力するフェーズである。以下順に説明する。
[Operation]
The operation of the statistical machine translation system 20 shown in FIG. The operation of the statistical machine translation system 20 has two phases as is apparent from the above description. The first is a phase in which a
−モデル作成フェーズ−
日本語コーパス30、対訳コーパス32、および英語コーパス34が予め準備されているものとする。日本語フレーズNグラムモデル作成部50は、日本語コーパス30から日本語フレーズNグラムモデル56を作成する。英語フレーズNグラムモデル作成部52は、英語コーパス34から英語フレーズNグラムモデル58を作成する。英語言語モデル作成部54は、英語コーパス34から英語言語モデル60を作成する。
-Model creation phase-
Assume that a
フレーズセグメンテーションモデル作成部62は、日本語フレーズNグラムモデル56および日本語コーパス30に基づき、フレーズセグメンテーションモデル66を作成する。
The phrase segmentation
HMM学習部70は、こうして作成されたフレーズセグメンテーションモデル66および英語フレーズNグラムモデル58を用い、さらに対訳コーパス32を用いてフレーズ翻訳モデル68の学習を行なう。
The HMM learning
−翻訳フェーズ−
フレーズによるHMM翻訳モデル38、すなわち日本語フレーズNグラムモデル56と英語フレーズNグラムモデル58とフレーズ翻訳モデル68、および英語言語モデル60が準備できると、デコーダ42は入力文40に対する翻訳が可能になる。セグメンテーション処理部80が入力文40に対して可能な全てのセグメンテーションを行ないセグメンテーション記憶部82に記憶させる。ラッティス作成部84は、セグメンテーション記憶部82に記憶されたセグメンテーションに基づき、フレーズ翻訳モデル68などを用いながら、フレーズをノードとする翻訳文のラッティスを作成する。この際作成される翻訳文のラッティスのエッジおよびノードには、モデルに基づいて計算される確率が割当てられる。作成されたラッティスはラッティス記憶部86に記憶される。
-Translation phase-
When the phrase-based HMM
A*探索処理部88は、A*探索アルゴリズムを用いて、ラッティス記憶部86に記憶された確率付きのラッティスの中で確率が最も高いMベストのパスを探索し、それらに対応フレーズシーケンスを訳文44として出力する。
The A *
[効果]
以上のように本実施の形態では、対訳コーパスに含まれるフレーズの対応関係を直接にモデル化してHMM化し、効率的に翻訳フレーズ対を作成し翻訳を行なうことができる。精度も従来のものと比較してより高くなるという効果が得られる。
[effect]
As described above, in the present embodiment, the correspondence relationship of phrases included in the bilingual corpus can be directly modeled and converted into an HMM, and translation phrase pairs can be efficiently created and translated. There is an effect that the accuracy is higher than the conventional one.
[コンピュータによる実現]
この実施の形態の統計機械翻訳システム20は、コンピュータハードウェアと、そのコンピュータハードウェアにより実行されるプログラムと、コンピュータハードウェアに格納されるデータとにより実現される。図7はこのコンピュータシステム330の外観を示し、図8はコンピュータシステム330の内部構成を示す。
[Realization by computer]
The statistical machine translation system 20 of this embodiment is realized by computer hardware, a program executed by the computer hardware, and data stored in the computer hardware. FIG. 7 shows the external appearance of the
図7を参照して、このコンピュータシステム330は、FD(フレキシブルディスク)ドライブ352およびCD−ROM(コンパクトディスク読出専用メモリ)ドライブ350を有するコンピュータ340と、キーボード346と、マウス348と、モニタ342とを含む。
Referring to FIG. 7, the
図8を参照して、コンピュータ340は、FDドライブ352およびCD−ROMドライブ350に加えて、CPU(中央処理装置)356と、CPU356、FDドライブ352およびCD−ROMドライブ350に接続されたバス366と、ブートアッププログラム等を記憶する読出専用メモリ(ROM)358と、バス366に接続され、プログラム命令、システムプログラム、および作業データ等を記憶するランダムアクセスメモリ(RAM)360とを含む。コンピュータシステム330はさらに、プリンタ344を含んでいる。
Referring to FIG. 8, in addition to FD drive 352 and CD-
ここでは示さないが、コンピュータ340はさらにローカルエリアネットワーク(LAN)への接続を提供するネットワークアダプタボードを含んでもよい。
Although not shown here, the
コンピュータシステム330に統計機械翻訳システム20としての動作を行なわせるためのコンピュータプログラムは、CD−ROMドライブ350またはFDドライブ352に挿入されるCD−ROM362またはFD364に記憶され、さらにハードディスク354に転送される。または、プログラムは図示しないネットワークを通じてコンピュータ340に送信されハードディスク354に記憶されてもよい。プログラムは実行の際にRAM360にロードされる。CD−ROM362から、FD364から、またはネットワークを介して、直接にRAM360にプログラムをロードしてもよい。
A computer program for causing the
なお、本実施の形態においては、図3に示すフレーズ翻訳モデル68、日本語フレーズNグラムモデル56、英語フレーズNグラムモデル58、および英語言語モデル60などはいずれも図8に示すハードディスク354に記憶されており、必要に応じてRAM360に読出され、プログラム実行時に利用される。図3に示すセグメンテーション記憶部82、ラッティス記憶部86などは、いずれもRAM360により実現される。
In this embodiment, the
このプログラムは、コンピュータ340にこの実施の形態に係る統計機械翻訳システム20として動作を行なわせる複数の命令を含む。この動作を行なわせるのに必要な基本的機能のいくつかはコンピュータ340上で動作するオペレーティングシステム(OS)またはサードパーティのプログラム、もしくはコンピュータ340にインストールされる各種ツールキットのモジュールにより提供される。したがって、このプログラムはこの実施の形態のシステムを実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能または「ツール」を呼出すことにより、上記した統計機械翻訳システム20としての動作を実行する命令のみを含んでいればよい。コンピュータシステム330の動作は周知であるので、ここでは繰返さない。
This program includes a plurality of instructions for causing the
[変形例]
上記した実施の形態では、日本語フレーズNグラムモデル56および英語言語モデル60はいずれも、独立した単言語の日本語コーパス30および英語コーパス34から作成される。一般に単言語のコーパスの場合、その内容が充実しているため、こうした手順によって作成された日本語フレーズNグラムモデル56、英語フレーズNグラムモデル58、英語言語モデル60は精度が高くなる。しかし本発明はそのような実施の形態には限定されない。例えば、対訳コーパス32に含まれる対訳数が十分多い場合には、対訳コーパス32のうちの日本語文から日本語フレーズNグラムモデル56を作成し、英語文から英語フレーズNグラムモデル58および英語言語モデル60を作成するようにしてもよい。
[Modification]
In the embodiment described above, both the Japanese phrase N-
なお、本実施の形態では、図4に示す処理は2回繰返し、図6に示す処理は1回のみで終了するが、本発明はそのような実施の形態に限定されるわけではない。例えば図4における処理は1回以上、任意の回数だけ繰返すようにしてもよい。また図6に示す処理では、ステップ172の後ステップ160に戻るようにし、その繰返しを2回以上行なうようにしてもよい。さらに、繰返し数を固定するのではなく、何らかの条件が成立したら繰返しを終了するようにしてもよい。
In the present embodiment, the process shown in FIG. 4 is repeated twice, and the process shown in FIG. 6 ends only once, but the present invention is not limited to such an embodiment. For example, the processing in FIG. 4 may be repeated one or more times and an arbitrary number of times. In the process shown in FIG. 6, the process may return to step 160 after
また、日本語フレーズNグラムモデル作成部50および英語フレーズNグラムモデル作成部52による日本語フレーズNグラムモデル56および英語フレーズNグラムモデル58の作成の際、上記実施の形態では日本語コーパス30、対訳コーパス32、および英語コーパス34を制約として用いている。しかし本発明はそのような実施の形態には限定されない。例えばこれに加えて、またはこれらのいずれかに代えて、フレーズ形式の対訳辞書を制約として用いて日本語フレーズNグラムモデル56、英語フレーズNグラムモデル58の作成を行なうようにしてもよい。
When the Japanese phrase N-
上記した実施の形態では、日本語から英語への翻訳を行なっている。しかし本発明はそのような実施の形態には限定されない。適切なコーパスが利用可能なものであれば、どのような言語の組合せに対しても本発明を適用できる。 In the embodiment described above, translation from Japanese to English is performed. However, the present invention is not limited to such an embodiment. The present invention can be applied to any combination of languages as long as an appropriate corpus is available.
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味および範囲内でのすべての変更を含む。 The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each claim in the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are intended. Including.
20 統計機械翻訳システム、30 日本語コーパス、32 対訳コーパス、34 英語コーパス、36 フレーズによるHMM翻訳モデル作成部、38 フレーズによるHMM翻訳モデル、40 入力文、42 デコーダ、44 訳文、50 日本語フレーズNグラムモデル作成部、52 英語フレーズNグラムモデル作成部、54 英語言語モデル作成部、56 日本語フレーズNグラムモデル、58 英語フレーズNグラムモデル、60 英語言語モデル、62 フレーズセグメンテーションモデル作成部、66 フレーズセグメンテーションモデル、68 フレーズ翻訳モデル、70 HMM学習部、80 セグメンテーション処理部、82 セグメンテーション記憶部、84 ラッティス作成部、86 ラッティス記憶部 20 statistical machine translation systems, 30 Japanese corpus, 32 parallel corpus, 34 English corpus, 36 phrase HMM translation model generator, 38 phrase HMM translation model, 40 input sentences, 42 decoder, 44 translations, 50 Japanese phrases N Gram model creation unit, 52 English phrase N-gram model creation unit, 54 English language model creation unit, 56 Japanese phrase N-gram model, 58 English phrase N-gram model, 60 English language model, 62 Phrase segmentation model creation unit, 66 phrase Segmentation model, 68 phrase translation model, 70 HMM learning unit, 80 segmentation processing unit, 82 segmentation storage unit, 84 lattice creation unit, 86 lattice storage unit
Claims (5)
前記ソース言語のフレーズNグラムモデル(Nは2以上の整数)、前記ターゲット言語のフレーズNグラムモデルおよび所定の言語モデル、および前記ターゲット言語から前記ソース言語へのフレーズによる翻訳モデルを記憶するための記憶手段と、
前記ソース言語の入力文に対するセグメンテーションを行なうためのセグメンテーション手段と、
前記セグメンテーション手段により得られたセグメンテーションにしたがい、前記記憶手段に記憶された前記ソース言語の前記フレーズNグラムモデル、前記ターゲット言語の前記フレーズNグラムモデルおよび前記言語モデル、ならびに前記ターゲット言語から前記ソース言語への前記フレーズによる翻訳モデルを用いて、前記ターゲット言語のフレーズを任意の順序で、かつ前記ソース言語のフレーズNグラムモデル、前記ターゲット言語の前記フレーズNグラムモデルおよび前記言語モデル、ならびに前記フレーズによる翻訳モデルを用いて得た確率を各ノードとエッジとに付した、フレーズのラッティスを作成するためのラッティス作成手段と、
前記ラッティス作成手段により作成された前記ラッティスのうちで、最大確率を与える上位M個のフレーズシーケンスを探索するための探索手段とを含む、統計機械翻訳装置。 A translation device that translates an input sentence in a source language into a target language,
For storing a phrase N-gram model of the source language (N is an integer of 2 or more), a phrase N-gram model of the target language and a predetermined language model, and a translation model by a phrase from the target language to the source language Storage means;
Segmentation means for performing segmentation on the source language input sentence;
According to the segmentation obtained by the segmentation means, the phrase N-gram model of the source language stored in the storage means, the phrase N-gram model and the language model of the target language, and from the target language to the source language The target language phrases in any order, and the source language phrase N-gram model, the target language phrase N-gram model and the language model, and the phrase Lattice creation means for creating a lattice lattice with the probability obtained using the translation model attached to each node and edge,
A statistical machine translation apparatus comprising: search means for searching for top M phrase sequences giving the maximum probability among the lattices created by the lattice creation means.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004281636A JP4084789B2 (en) | 2004-09-28 | 2004-09-28 | Statistical machine translation apparatus and statistical machine translation program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004281636A JP4084789B2 (en) | 2004-09-28 | 2004-09-28 | Statistical machine translation apparatus and statistical machine translation program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2006099208A true JP2006099208A (en) | 2006-04-13 |
| JP4084789B2 JP4084789B2 (en) | 2008-04-30 |
Family
ID=36238988
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004281636A Expired - Fee Related JP4084789B2 (en) | 2004-09-28 | 2004-09-28 | Statistical machine translation apparatus and statistical machine translation program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4084789B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7860719B2 (en) * | 2006-08-19 | 2010-12-28 | International Business Machines Corporation | Disfluency detection for a speech-to-speech translation system using phrase-level machine translation with weighted finite state transducers |
| JP2011527471A (en) * | 2008-07-03 | 2011-10-27 | グーグル・インコーポレーテッド | Parameter optimization for machine translation |
| JP2013242654A (en) * | 2012-05-18 | 2013-12-05 | Nippon Hoso Kyokai <Nhk> | Phrase translation model learning device and program of the same |
| CN103823795A (en) * | 2012-11-16 | 2014-05-28 | 佳能株式会社 | Machine translation system, machine translation method and decoder used together with system |
-
2004
- 2004-09-28 JP JP2004281636A patent/JP4084789B2/en not_active Expired - Fee Related
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7860719B2 (en) * | 2006-08-19 | 2010-12-28 | International Business Machines Corporation | Disfluency detection for a speech-to-speech translation system using phrase-level machine translation with weighted finite state transducers |
| JP2011527471A (en) * | 2008-07-03 | 2011-10-27 | グーグル・インコーポレーテッド | Parameter optimization for machine translation |
| US8744834B2 (en) | 2008-07-03 | 2014-06-03 | Google Inc. | Optimizing parameters for machine translation |
| KR101623891B1 (en) | 2008-07-03 | 2016-05-24 | 구글 인코포레이티드 | Optimizing parameters for machine translation |
| JP2013242654A (en) * | 2012-05-18 | 2013-12-05 | Nippon Hoso Kyokai <Nhk> | Phrase translation model learning device and program of the same |
| CN103823795A (en) * | 2012-11-16 | 2014-05-28 | 佳能株式会社 | Machine translation system, machine translation method and decoder used together with system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4084789B2 (en) | 2008-04-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Yamada et al. | A syntax-based statistical translation model | |
| Garg et al. | Machine translation: a literature review | |
| US20070265826A1 (en) | Systems and methods for fast and memory efficient machine translation using statistical integrated phase lattice | |
| JP2005521952A (en) | Inter-phrase coupling probability model for statistical machine translation | |
| CN101320366A (en) | Apparatus and method for machine translation | |
| Ortiz-Martínez et al. | Thot: a toolkit to train phrase-based statistical translation models | |
| Yang et al. | Statistical machine translation | |
| Nguyen et al. | Nonparametric word segmentation for machine translation | |
| JP4084789B2 (en) | Statistical machine translation apparatus and statistical machine translation program | |
| Ahmadnia et al. | Enhancing phrase-based statistical machine translation by learning phrase representations using long short-term memory network | |
| Singh et al. | An English-assamese machine translation system | |
| Gu et al. | Concept-based speech-to-speech translation using maximum entropy models for statistical natural concept generation | |
| JP2005025474A (en) | Machine translation apparatus, computer program, and computer | |
| Tan et al. | A scalable distributed syntactic, semantic, and lexical language model | |
| JP2006053683A (en) | Speech recognition and machine translation device | |
| JP5544518B2 (en) | Machine translation apparatus, machine translation method, and program thereof | |
| Shahih et al. | Combining word and character vector representation on neural machine translation | |
| JP4829702B2 (en) | Machine translation device, machine translation method, generation rule creation device, generation rule creation method, and program and recording medium thereof | |
| JP4113204B2 (en) | Machine translation apparatus, method and program thereof | |
| SMT | P (file) | |
| Huang et al. | An EM algorithm for SCFG in formal syntax-based translation | |
| Kardava | A Morphology-Driven Approach to NLP for a Low-Resource, Highly Complex Language | |
| Crego et al. | The TALP ngram-based SMT system for IWSLT’05 | |
| JP2006024114A (en) | Machine translation apparatus and machine translation computer program | |
| Gu et al. | Improving statistical natural concept generation in interlingua-based speech-to-speech translation. |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070831 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071030 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071218 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080205 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080215 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110222 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |
