WO2012026668A2 - 의존관계 포레스트를 이용한 통계적 기계 번역 방법 - Google Patents

의존관계 포레스트를 이용한 통계적 기계 번역 방법 Download PDF

Info

Publication number
WO2012026668A2
WO2012026668A2 PCT/KR2011/003968 KR2011003968W WO2012026668A2 WO 2012026668 A2 WO2012026668 A2 WO 2012026668A2 KR 2011003968 W KR2011003968 W KR 2011003968W WO 2012026668 A2 WO2012026668 A2 WO 2012026668A2
Authority
WO
WIPO (PCT)
Prior art keywords
dependency
forest
structures
dependent
node
Prior art date
Application number
PCT/KR2011/003968
Other languages
English (en)
French (fr)
Other versions
WO2012026668A3 (ko
Inventor
황영숙
김상범
린쇼우슌
투자오펑
리우양
리우췬
윤창호
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to CN201180040952.0A priority Critical patent/CN103154939B/zh
Priority to US13/818,137 priority patent/US20130158975A1/en
Publication of WO2012026668A2 publication Critical patent/WO2012026668A2/ko
Publication of WO2012026668A3 publication Critical patent/WO2012026668A3/ko
Priority to US15/968,078 priority patent/US10303775B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/191Automatic line break hyphenation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/45Example-based machine translation; Alignment

Definitions

  • the present invention relates to a statistical machine translation method using a dependency forest.
  • a plurality of dependency trees are generated by dependency analysis of language pair corpus, and a dependency forest is generated by combining a plurality of generated dependency trees.
  • the dependency forest can be used to improve the translation performance by applying the generated translation rule and dependency language model when converting the source language text into the target language text.
  • Figure 1 shows the dependency tree of the English sentence "He saw a boy with a telescope.” An arrow points from the child to the parent. Often the parent is called the head of the child. For example, in Figure 1, 'saw' is the head of 'he'
  • the dependency tree is relatively less complex than the structure analysis because there is no need to analyze the structure of the sentence.
  • Eligible dependency structures consist of fixed or fluid dependent trees Fixed children form a complete dependency tree of all children Flow structures are siblings of a common head It is composed of nodes (sibling nodes) but the head itself is unspecified or fluid, eg, Figures 2 (a) and (b) are two fixed structures and (c) is a flow structure.
  • Extracting a string-dependent structure rule from an ordered string-dependent structure pair is similar to extracting an SCFG, except that the target language side is a qualified structure. For example, we can first extract a string-dependent structure rule that matches the word alignment as follows:
  • X is the non-terminal code and the subscript indicates the correspondence between the non-terminal code on the source language and the target language side.
  • the tree probability in FIG. 1 may be calculated as follows.
  • P T (x) is the probability of the word x that is the root of the dependency tree.
  • P L and P R are the probability of occurrence on the left and right sides, respectively.
  • the present invention has been made to solve the above problems, and aims to improve the quality of rule tables and dependency language models by using a new concept of dependency forest that combines multiple dependency trees instead of one best dependency tree. It is done.
  • an object of the present invention is to improve translation performance by applying a rule table and a dependency language model generated using a dependency forest.
  • the translation rule generation method according to the present invention is characterized in that the translation rule is extracted using a dependency forest in which a plurality of dependency trees are combined.
  • a translation rule generation method comprises the steps of performing a dependency analysis on a language pair corpus, generating a dependency tree by combining the dependency analysis and combining a plurality of dependency trees. Generating a forest, searching for a plurality of qualified structures for each node in the dependency forest, and extracting translation rules if the dependent structures in the plurality of qualified structures match word alignment. It features.
  • the statistical machine translation method according to the present invention is characterized by translating a primitive language using a translation rule and a dependency language model generated from a dependency forest in which a plurality of dependency trees are combined. .
  • a translation rule generating apparatus comprises means for generating a dependency tree by performing a dependency analysis on a language pair corpus and combining a plurality of dependency trees to generate a dependency forest; Means for searching a plurality of qualified structures for each node in the dependency forest and means for extracting translation rules if the dependent structures in the plurality of qualified structures match the word alignment.
  • a statistical machine translation apparatus generates a dependency tree by dependency analysis of a source sentence and a target sentence of a parallel corpus, and combines a plurality of dependency trees for the source sentence and the target sentence.
  • a dependency analyzer for generating a dependency forest, a translation rule extractor for extracting a translation rule using the dependency forest, a language model learner for generating a dependency language model using the dependency forest of the target sentence, and And a decoder for converting source language text to object language text by applying a translation rule and a dependency language model.
  • a rule table and a dependency language model are generated from a dependency forest created by combining a plurality of dependency trees, and the translation is performed using the dependency tree.
  • 1 is a diagram showing a learning example consisting of a dependency tree of an English sentence, a Chinese translation, and word alignment.
  • FIG. 2 shows a fixed structure and a flow structure in a qualified dependent structure.
  • FIG. 5 shows a statistical machine translation apparatus according to the present invention.
  • the present invention uses a source sentence string and a number of dependent trees for the corresponding destination statement during the learning phase in a tree based statistical machine translation framework.
  • the present invention presents a dependency tree of compact representation called dependency forest to effectively handle multiple dependency trees.
  • Dependency forests have the same structure of hypergraphs as packed forests.
  • Hypergraph-based dependency forests are aligned to source statement strings.
  • a plurality of translation rules are extracted by checking whether the target phrase is a qualified structure from a string-to-forest aligned corpus.
  • each node is a word.
  • a span is added to each node to identify the nodes.
  • nodes are connected by hyperedges.
  • an edge points to its head from a dependent, but the hyperedge binds all dependent words with a common head.
  • the rule extraction algorithm searches for a well-formed structure for each node in a bottom-up manner.
  • the algorithm maintains k best-formed structures for each node.
  • the qualified structure of the head can be constructed from its dependent words.
  • the k best fixed and floating structures for each node in the dependency forest can be found by manipulating their fixed word's fixed structure. Then, if the dependency structure matches the word alignment, the string-dependency matching rule is extracted.
  • 3 (a) and 3 (b) show two dependency trees for the example of the English sentence of FIG. 1.
  • the preposition phrase 'with a telescope' may depend on 'saw' or 'boy'.
  • 4 shows a dependency forest that densely represents two dependency trees by sharing a common node and edge.
  • each node is a word. To distinguish between nodes, span each node. For example, the span of 'a' is (2, 2). 'A' is the third word in the sentence. The fourth word 'boy' dominates nodes a 2,2 and can be represented as boy 2,3 . Note that the location of the 'boy' is taken into account here. Similarly, in the word FIG. 3 (b), 'boy' may be represented as boy 2,6 .
  • nodes are connected by hyperedges. In a dependency tree, an edge simply points to its head from the dependent word, but the hyperedge binds all dependent words with a common head.
  • hyper edge e1 indicates that he 0,0 , boy 2,3 , with 4,6 are dependent words from left to right of saw 0,6 .
  • Dependency forests can be represented as ⁇ V, E> pairs.
  • V is the node set and E is the hyperedge set.
  • each node belongs to V (v ⁇ V) and is represented in the form of w i, j .
  • w i, j indicates that the substring dominates substrings from positions i to j except itself.
  • Each hyperedge belongs to E (e ⁇ E) and is represented by a pair of ⁇ tail (e) and head (e)>.
  • head (e) belongs to V as the head (head (e) ⁇ V)
  • tail (e) also belongs to V as the dependent word of the head (tail (e) ⁇ V).
  • Dependency forests have the same structure of hypergraphs as packed forests. However, in the bundled forest, each hyperedge treats the corresponding PCFG rule probability as the weight, while the dependency forest makes the weighted hypergraph. This is because the dependency parser outputs a positive or negative score for each edge of the dependency tree rather than the hyperedge of the dependency forest. For example, in (a) of FIG. 3, the scores for edges he ⁇ saw, boy ⁇ saw and with ⁇ saw are 13, 22, and -12, respectively.
  • C (e) is the count of hyperedge e
  • head (e) is the head
  • tail (e) is the set of dependent words of the head
  • v is one dependent word
  • s (v, head (e)) is The score of the edge from v to head (e).
  • the count of the hyper edge e1 in FIG. 4 is as follows.
  • the probabilities p (e) of the hyperedges can then be obtained by normalizing the counts between all hyperedges with the same head collected from the training corpus.
  • the GHKM algorithm cannot be applied to extract string dependency rules from dependency forests. This is because the algorithm requires that a complete subtree be present in the rule, while neither fixed nor flow dependent structures guarantee that all heads of the head are included. For example, the flow structure of FIG. 2C actually includes two trees.
  • the algorithm according to the present invention searches for a qualified structure for each node in a bottom-up manner.
  • the algorithm maintains the best k qualified structures for each node, which can be constructed from the qualified structures of its dependent words. For example, in FIG. 4, since the fixed structure whose telescope 5,6 is the root is (a) the telescope, the fixed structure whose node with 4,6 is the root can be obtained by adding the fixed structure of its dependent words to the node.
  • Figure 2 (b) shows the structure according to the result.
  • a method of evaluating the qualified structure extracted from the node will be described.
  • a fractional count is assigned to each eligible structure according to the Mi and Huang 2008 document.
  • root (t) is the root of the tree
  • e is the edge
  • leaves (t) is the leaf (component) set of the tree
  • ⁇ ( ⁇ ) is the outside probability
  • ⁇ ( ⁇ ) is the inside probability
  • the subtree whose boy 2,6 is the root has the following posterior probability.
  • TOP represents the root node of the forest.
  • the fractional count of the minimum tree fragment containing the qualified structure is used to approximate the fractional count.
  • the fractional count of the qualified structure can be used to calculate the relative frequency of the rule with the qualified structure on the target language side.
  • the posterior probability of hyperedge e 2 in FIG. 4 is calculated as follows.
  • Each n-gram (eg, "boy-as-head a" is assigned the same fractional frequency of the hyperedge to which it belongs.
  • Table 1 shows the BLEU scores and average decoding times for the Chinese-English test set.
  • the first translation system (basic translation system) used the dependency language model and rules table learned from the best one dependency tree, and the rest of the translation systems depended on at least one of the dependency language model and rules table. Was applied. * Or ** is significantly better than the default translation system.
  • Table 1 shows the BLEU scores on the test set.
  • the first column “Rule” indicates whether the string dependency rule was learned from the best one dependency tree or dependency forest.
  • the second column “DepLM” also distinguishes two primitive languages for learning dependency language models.
  • the basic translation system used the dependency language model and rule table learned from the best one dependency tree.
  • a rule table obtained from the dependency forest and a dependency language model are added to improve string-dependent translation in a consistent and significant range from +1.3 to +1.4 BLEU points. Also, even with the rules table and dependency language model learned from the dependency forest, the decoding time increases only slightly.
  • Table 2 shows the BLEU scores for the Korean-Chinese test set.
  • the learning corpus contains about 8.2M Korean words and 7.3M Chinese words.
  • Chinese sentences were used to learn the 5-gram dependency language model as well as the 5-gram dependency language model.
  • Both the development and test sets contain 1,006 sentences with a single reference.
  • Table 2 shows the BLEU scores on the test set. It can also be seen that the forest based approach according to the present invention provides a significant improvement over the basic translation.
  • the statistical machine translation apparatus is largely composed of a training part and a decoding part.
  • a dependency parser first parses the source and target statements of the bilingual corpus.
  • the dependency analysis generates a dependency tree for the source and object statements.
  • the dependency analyzer combines the generated multiple dependency trees to create each dependency forest for the source and destination statements.
  • the translation rule extractor creates a translation rule using the dependency forest and stores the generated translation rule in a translation table.
  • the dependency language model learner creates the dependency language model using the dependency forest for the object sentence and stores the generated dependency language model in the language model database (DLM).
  • the source language input is input to the decoder, and the decoder generates the output language text using the translation rule and the dependency language model.
  • the decoder can improve the translation performance by using the translation language and the dependency language model generated from the dependency forest.
  • the present invention can be applied to a variety of playback apparatuses by implementing a translation rule generation using the dependency forest and a machine translation method using the same as a software program and recording them on a computer-readable recording medium.
  • Various playback devices may be PCs, laptops, portable terminals, and the like.
  • the recording medium may be a hard disk, a flash memory, a RAM, a ROM, or the like as an internal type of each playback device, or an optical disc such as a CD-R or a CD-RW, a compact flash card, a smart media, a memory stick, or a multimedia card as an external type. have.
  • the present invention analyzes the dependencies from the parallel corpus, creates a plurality of dependency trees, combines the generated multiple dependency trees to create dependency forests, and generates translation rules and dependency language models using dependency forests.
  • the translation performance can be improved by applying the generated translation rule and dependency language model, and thus it can be widely used in the field of statistical machine translation.

Abstract

본 발명은 트리 기반 통계적 기계 번역에서 다수의 의존 트리를 사용하는 것으로 다수의 의존 트리를 효과적으로 처리하기 위해 의존관계 포레스트(dependency forest)를 제안한다. 본 발명은 의존관계 포레스트를 이용하여 번역 규칙과 의존관계 언어 모델을 생성하고, 원시언어 텍스트를 목적언어 텍스트로 변환할 때 상기 생성된 번역 규칙 및 의존관계 언어 모델을 적용함으로써 번역 성능을 높일 수 있다.

Description

의존관계 포레스트를 이용한 통계적 기계 번역 방법
본 발명은 의존관계 포레스트를 이용한 통계적 기계 번역 방법에 관한 것으로, 상세하게는 언어 쌍 말뭉치를 의존 분석하여 다수의 의존 트리를 생성하고 생성된 다수의 의존 트리를 결합하여 의존관계 포레스트를 생성하고 의존관계 포레스트를 이용하여 번역 규칙 및 의존관계 언어 모델을 생성한 후 원시언어 텍스트를 목적언어 텍스트로 변환할 때 상기 생성된 번역 규칙 및 의존관계 언어 모델을 적용함으로써 번역 성능을 높일 수 있는 의존관계 포레스트를 이용한 통계적 기계 번역 방법에 관한 것이다.
도 1은 영어 문장 “He saw a boy with a telescope"의 의존 트리(dependency tree)를 나타낸 것이다. 화살표가 자식(children)에서 부모(parent)로 향한다. 종종 부모를 자식의 헤드(head)라고 한다. 예를 들어 도 1에서 'saw'는 'he'의 헤드이다. 의존 트리는 문장에 대한 구구조 분석을 할 필요가 없기 때문에 구 구조 분석에 비해 복잡도가 상대적으로 낮다. 2008년 Shen 외 개발자는 문자열을 의존트리로 변환하는 string-to-dependency 번역모델(translation model)을 제안하였다. 원시언어 문자열을 목적언어의 의존트리로 변환하는 string-to-dependency 번역모델은 두 가지 중요한 특징이 있다. 첫째 string-to-dependency 번역모델 규칙은 목적언어(target language) 측에서 적격 의존 구조(well-formed dependency structure)를 가져야 한다는 것이다. 적격 의존 구조는 효과적인 동적 프로그래밍을 가능하게 하고 많은 유용한 비 구성요소적 규칙(non-constituent rule)을 유지한다. 적격 의존 구조는 고정적이거나 유동적 의존트리로 구성된다. 고정 구조는 모든 자식이 완전한 의존 트리를 형성한다. 유동 구조는 공통 헤드의 형제자매 노드(sibling node)로 구성되나 헤드 자체는 특정되지 않거나 유동적이다. 예를 들어 도 2의 (a) 및 (b)는 두 개의 고정 구조이고 (c)는 유동 구조이다.
도 1은 영어 의존 트리, 중국어 번역문 및 단어 정렬로 구성된 학습 예를 나타낸다. 이외에 영어와 중국어 단어 간의 대응 확인을 간편하게 하기 위해, 영어 문장이 주어진다. 정렬된 문자열-의존구조 쌍으로부터 문자열-의존구조 규칙을 추출하는 것은 목적언어 측이 적격 구조라는 점을 제외하면 SCFG를 추출하는 것과 유사하다. 예를 들어 우리는 다음과 같이 우선 단어 정렬과 일치하는 문자열-의존구조 규칙을 추출할 수 있다:
with ((a) telescope) → dai wangyuanjing de
그리고, 더 작은 규칙 (a) telescope → wangyuanjing를 비단말 부호로 대체하면서 다음과 같이 하나의 비 단말(non-terminal) 부호를 가진 규칙을 얻을 수 있다:
with (X1) → dai X1 de
여기서 X는 비 단말 부호이고 아래 첨자는 원시언어 및 목적언어 측 상의 비 단말 부호 간의 대응을 나타낸다.
의존 관계는 직접 문장의 의미론적 구조(semantics structure)를 모델링 하기 때문에 2008년 Shen 외 개발자는 의존관계 언어모델(dependency language model)을 도입하여 목적 문장의 생성을 보다 잘 설명하였다. 종래의 n-gram 언어모델과 비교하면 의존구조를 반영한 언어모델은 단어간 비 국부적(non-local) 의존관계를 포착하는데 탁월하다(예를 들어 도 1에서 saw ... with). 의존 트리가 주어지면 의존관계 언어모델 확률은 헤드단어와 그 의존단어 간에 정의된 3개의 서브 모델의 곱이 된다.
예를 들어 도 1에서 트리 확률은 다음과 같이 계산될 수 있다.
Probability = PT(saw)
×PL(he | saw-as-head)
×PR(boy | saw-as-head)
×PR(with | boy, saw-as-head)
×PL(a | boy-as-head)
×PR(telescope | with-as-head)
×PL(a | telescope-as-head)
여기서 PT(x)는 의존 트리의 루트인 단어 x의 확률이다. PL 및 PR 은 각각 좌우 측의 발생 확률이다.
최근의 의존 분석기(dependency parser)는 높은 품질(영어 91%, 중국어 87%)을 가지고 있지만, 통계적 기계 번역에서는 충분하지 않다. 문자열 트리(string-to-tree) 시스템은 파라미터 추정을 위해 1개의 최적 트리에 의존하기 때문에, 규칙 테이블과 의존구조 언어모델의 품질은 파싱 에러에 의해 영향을 받아 결국 번역 오류가 발생하게 되는 문제점이 있다.
본 발명은 상기의 문제점을 해결하기 위해 창안된 것으로서, 1개의 최선 의존 트리가 아닌 다수의 의존 트리를 결합한 새로운 개념의 의존관계 포레스트를 이용하여 규칙 테이블 및 의존관계 언어모델의 품질을 개선하는 것을 목적으로 한다.
또한, 본 발명은 의존관계 포레스트를 이용하여 생성된 규칙 테이블 및 의존관계 언어모델을 적용하여 번역 성능을 향상시키는 것을 목적으로 한다.
이를 위하여, 본 발명의 제1 측면에 따르면, 본 발명에 따른 번역 규칙 생성 방법은 다수의 의존 트리가 결합된 의존관계 포레스트를 이용하여 번역 규칙을 추출하는 것을 특징으로 한다.
본 발명의 제2 측면에 따르면, 본 발명에 따른 번역 규칙 생성 방법은언어 쌍 말뭉치에 대한 의존 분석을 수행하는 단계와, 상기 의존 분석에 의해 의존 트리를 생성하고 다수의 의존 트리를 결합하여 의존관계 포레스트를 생성하는 단계와, 상기 의존관계 포레스트 내의 각 노드에 대한 다수의 적격 구조를 탐색하는 단계와, 상기 다수의 적격 구조 내의 의존 구조가 단어 정렬과 일치하면 번역 규칙을 추출하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 제3 측면에 따르면, 본 발명에 따른 통계적 기계 번역 방법은 다수의 의존 트리가 결합된 의존관계 포레스트로부터 생성된 번역 규칙 및 의존관계 언어 모델을 이용하여 원시언어를 번역하는 것을 특징으로 한다.
본 발명의 제4 측면에 따르면, 본 발명에 따른 번역 규칙 생성 장치는 언어 쌍 말뭉치에 대한 의존 분석을 수행하여 의존 트리를 생성하고 다수의 의존 트리를 결합하여 의존관계 포레스트를 생성하는 수단과, 상기 의존관계 포레스트 내의 각 노드에 대한 다수의 적격 구조를 탐색하는 수단과, 상기 다수의 적격 구조 내의 의존 구조가 단어 정렬과 일치하면 번역 규칙을 추출하는 수단을 포함하는 것을 특징으로 한다.
본 발명의 제5 측면에 따르면, 본 발명에 따른 통계적 기계 번역 장치는 병렬 말뭉치의 원시문장 및 목적문장을 의존 분석하여 의존 트리를 생성하고 다수의 의존 트리를 결합하여 상기 원시문장 및 목적문장에 대한 의존관계 포레스트를 생성하는 의존 분석기와, 상기 의존관계 포레스트를 이용하여 번역 규칙을 추출하는 번역 규칙 추출기와, 상기 목적문장의 의존관계 포레스트를 이용하여 의존관계 언어 모델을 생성하는 언어 모델 학습기와, 상기 번역 규칙 및 의존관계 언어 모델을 적용하여 원시언어 텍스트를 목적언어 텍스트로 변환하는 디코더를 포함하는 것을 특징으로 한다.
본 발명은 다수의 의존 트리가 결합되어 생성된 의존관계 포레스트로부터 규칙 테이블 및 의존관계 언어 모델을 생성하고 이를 이용하여 번역을 수행함으로써 1개의 최선 의존 트리를 이용한 번역 방식에 비하여 문자열-의존구조 번역의 성능을 대폭 향상시킬 수 있는 효과가 있다.
도 1은 영어 문장의 의존 트리, 중국어 번역문 및 단어 정렬로 구성된 학습 예를 나타낸 도면.
도 2는 적격 의존 구조에서 고정 구조 및 유동 구조를 나타낸 도면.
도 3은 영어 문장에서 2개의 의존 트리를 나타낸 도면.
도 4는 2개의 의존 트리를 조밀하게 표시한 의존관계 포레스트를 나타낸 도면.
도 5는 본 발명에 따른 통계적 기계 번역 장치를 나타낸 도면.
이하, 첨부된 도면을 참조하여 본 발명에 따른 실시 예를 상세하게 설명한다. 본 발명의 구성 및 그에 따른 작용 효과는 이하의 상세한 설명을 통해 명확하게 이해될 것이다.
본 발명의 상세한 설명에 앞서, 동일한 구성요소에 대해서는 다른 도면 상에 표시되더라도 가능한 동일한 부호로 표시하며, 공지된 구성에 대해서는 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 구체적인 설명은 생략하기로 함에 유의한다.
본 발명은 트리 기반 통계적 기계 번역 프레임워크에서 학습 단계 동안 대응하는 목적문장을 위해 원시문장 문자열과 다수의 의존 트리를 사용한다. 본 발명은 다수의 의존 트리를 효과적으로 처리하기 위해 의존관계 포레스트(dependency forest)라고 하는 조밀한 표현(compact representation)의 의존 트리를 제시한다. 의존관계 포레스트는 묶음 포레스트(packed forest)와 같은 하이퍼그래프(hypergraph)의 구조를 가진다. 하이퍼그래프 기반 의존관계 포레스트는 원시문장 문자열에 정렬된다. 문자열-의존관계 포레스트 정렬 말뭉치(string-to-forest aligned corpus)로부터 목적 구문(target phrase)이 적격 구조인지 여부를 체크함으로써 복수의 번역 규칙이 추출된다. 의존관계 포레스트에서 각 노드(node)는 단어이다. 노드를 구별하기 위해 각 노드에 스팬(span)을 부가한다. 의존관계 포레스트에서 노드는 하이퍼에지(hyperedge)에 의해 연결된다. 의존 트리에서 에지(edge)는 의존단어(dependant)로부터 그의 헤드(head)를 가리키지만, 하이퍼에지는 공통의 헤드를 가진 모든 의존단어를 묶는다.
규칙 추출 알고리즘은 바텀업(bottom-up) 방식으로 각 노드에 대한 적격 구조(well-formed structure)를 탐색한다. 알고리즘은 각 노드에 대해 k개의 최선 적격 구조(k-best well-formed structure)를 유지한다. 헤드의 적격 구조는 그의 의존단어로부터 구성될 수 있다.
의존관계 포레스트에서 각 노드에 대한 k개의 최선 고정 및 유동 구조(fixed and floating structure)는 자기의 의존단어의 고정 구조를 조작함으로써 구할 수 있다. 그러면 의존 구조가 단어 정렬과 일치하면 문자열-의존관계 대응 규칙이 추출된다.
의존관계 포레스트(Dependency Forest)
도 3의 (a)와 (b)는 도 1의 영어문장 예에 대한 2개의 의존 트리를 나타낸 것이다. 전치사 구 'with a telescope'는 'saw' 또는 'boy'에 의존할 수 있다. 도 4는 공통의 노드(node)와 에지(edge)를 공유함으로써 2개의 의존 트리를 조밀하게 표시하는 의존관계 포레스트(dependency forest)를 나타낸 것이다.
의존관계 포레스트에서 각 노드는 단어이다. 노드 간을 구별하기 위해, 각 노드에 스팬(span)을 붙인다. 예를 들어 'a'의 스팬은 (2, 2)이다. 왜냐하면 문장에서 'a'는 세 번째 단어이기 때문이다. 네 번째 단어 'boy'는 노드 a2,2을 지배하므로 boy2,3로 표시할 수 있다. 여기서 'boy'의 위치가 고려됨에 유의한다. 유사하게 단어 도 3의 (b)에서 'boy'는 boy2,6로 표시할 수 있다. 의존관계 포레스트에서 노드는 하이퍼에지(hyperedge)로 연결된다. 의존 트리에서 에지는 단지 의존단어로부터 그의 헤드를 가리키나, 하이퍼에지는 공통의 헤드를 가진 모든 의존단어를 묶는다.
예를 들어, 도 4에서 하이퍼에지 e1은 he0,0, boy2,3, with4,6가 saw0,6의 좌로부터 우로 의존단어임을 표시한다.
e1: <(he0,0, boy2,3, with4,6), saw0,6>
의존관계 포레스트는 형식상 <V, E> 쌍으로 표시할 수 있다. 여기서 V는 노드 집합이고, E는 하이퍼에지 집합이다. n개의 단어로 구성된 문장 w0:n-1 = w0...wn-1에서 각 노드는 V에 속하고(v ∈ V), wi,j의 형태로 표현된다. wi,j는 자신을 제외한 위치 i에서 j까지의 서브 문자열(substring)을 지배함을 나타낸다. 각 하이퍼에지는 E에 속하고(e ∈ E), <tail(e), head(e)> 쌍으로 표현된다. head(e)는 헤드로서 V에 속하고(head(e) ∈ V), tail(e)는 헤드의 의존단어로서 역시 V에 속한다(tail(e) ∈ V).
의존관계 포레스트는 묶음 포레스트(packed forest)와 같은 하이퍼그래프(hypergraph)의 구조를 가진다. 그러나 묶음 포레스트에서 각 하이퍼에지가 대응하는 PCFG 규칙 확률을 가중치로서 취급하는 반면, 의존관계 포레스트가 가중치가 적용된 하이퍼그래프가 되도록 하고 있다. 왜냐하면 의존 분석기(dependency parser)가 의존관계 포레스트의 하이퍼에지보다 의존 트리의 각 에지에 대하여 포지티브 또는 네거티브 스코어를 출력하기 때문이다. 예를 들어, 도 3의 (a)에서 에지 he → saw, boy → saw 그리고 with → saw에 대한 스코어는 각각 13, 22, -12이다.
각 하이퍼에지에 확률을 할당하기 위해, 대응하는 에지의 스코어를 이용하여 먼저 하이퍼에지에 대한 포지티브 개수를 획득할 수 있다.
Figure PCTKR2011003968-appb-I000001
여기서 C(e)는 하이퍼에지 e의 카운트(count), head(e)는 헤드, tail(e)은 헤드의 의존단어 집합, v는 하나의 의존단어, s(v, head(e))는 v에서 head(e)로 에지의 스코어이다. 예를 들어, 도 4에서 하이퍼에지 e1의 카운트는 다음과 같다.
Figure PCTKR2011003968-appb-I000002
그리고, 하이퍼에지의 확률 p(e)는 학습 말뭉치(training corpus)로부터 수집된 동일한 헤드를 가진 모든 하이퍼에지 간의 카운트를 정규화함으로써 얻을 수 있다.
Figure PCTKR2011003968-appb-I000003
결과적으로 각 하이퍼에지가 확률을 갖는 가중적 의존관계 포레스트(weighted dependency forest)를 얻을 수 있다.
포레스트 기반 규칙 추출(Forest-based Rule Extraction)
트리 기반 규칙 추출에서, 먼저 단어 정렬과 일치하는 모든 언어 쌍 구문(bilingual phrases)를 열거한 다음 목적 구문(target phrase)에 대한 의존 구조가 적격(well-formed)인지를 체크한다. 그러나 이 알고리즘은 목적 구문에 대한 적격 구조는 기하급수적으로 증가하기 때문에 포레스트 시나리오에서는 동작하지 않는다.
최근 한 개의 최선 트리(1-best tree)로부터 트리 문자열 규칙(tree-to-string rule)을 추출하기 위해 개발된 GHKM 알고리즘은 묶음 포레스트에 성공적으로 확장 적용된 바 있다(Mi and Huang 2008). 이 알고리즘은 최소 단위의 규칙과 복합 규칙을 구별한다. 기하급수적 수의 복합 규칙이 존재함에도 불구하고, 각 노드로부터 추출된 최소 규칙의 개수는 다소 제한적이다. 따라서 최소 규칙을 결합함으로써 양호한 복합 규칙을 얻을 수 있다.
하지만 GHKM 알고리즘은 의존관계 포레스트로부터 문자열 의존 규칙을 추출하는데 적용할 수 없다. 왜냐하면 이 알고리즘은 완전한 서브 트리가 규칙 내 존재해야 함을 요구하는 반면 고정 또는 유동 의존 구조 어느 것도 헤드의 모든 의존단어가 포함되는 것을 보장하지 않기 때문이다. 예를 들어, 도 2의 (c)의 유동 구조는 사실 두 개의 트리를 포함한다.
이에 대하여, 본 발명에 따른 알고리즘은 바텀업(bottom-up) 방식으로 각 노드에 대한 적격 구조를 탐색한다. 이 알고리즘은 각 노드에 대한 최선의 k개의 적격 구조를 유지하는데, 헤드의 적격 구조는 그의 의존단어의 적격 구조로부터 구성될 수 있다. 예를 들어, 도 4에서 telescope5,6 가 루트인 고정 구조가 (a) telescope이므로, 노드 with4,6가 루트인 고정 구조는 그의 의존단어의 고정 구조를 노드에 부가함으로써 얻을 수 있다. 도 2의 (b)는 그 결과에 따른 구조를 나타낸 것이다.
유사하게 노드 saw0,6에 대한 유동 구조는 그의 의존단어 boy2,3 및 with4,6의 고정 구조를 연결하여 얻을 수 있다. 도 2의 (c)는 그 결과에 따른 구조를 나타낸 것이다.
따라서 의존관계 포레스트에서 의존단어의 고정 구조를 조작함으로써 노드에 대한 가장 확률 높은 k개의 고정 및 유동 구조를 구할 수 있다. 그리고 나서 의존 구조가 단어 정렬과 일치하면 문자열 의존 규칙을 추출할 수 있다.
노드로부터 추출된 적격 구조를 평가하는 방법에 대하여 설명한다. 상기 Mi and Huang 2008 문헌에 따라 각 적격 구조에 단편적 카운트(fractional count)를 할당한다. 트리 프레그먼트(tree fragment) t가 주어지면, 인사이드-아웃사이드 알고리즘을 사용하여 사후 확률(posterior probability)을 계산한다.
Figure PCTKR2011003968-appb-I000004
여기서 root(t)는 트리의 루트, e는 에지, leaves(t)는 트리의 잎(구성요소) 집합, α(·)는 아웃사이드 확률, β(·)는 인사이드 확률을 의미한다.
예를 들어, 도 4에서 boy2,6가 루트인 서브 트리는 다음의 사후 확률을 가진다.
Figure PCTKR2011003968-appb-I000005
그러면 서브 트리 t의 단편적 빈도는 다음과 같다.
Figure PCTKR2011003968-appb-I000006
여기서 TOP는 포레스트의 루트 노드를 나타낸다.
적격 구조가 비 구성요소적(non-constituent)이면, 적격 구조를 포함하는 최소 트리 프레그먼트의 단편적 카운트를 이용하여 단편적 카운트를 근사화한다. 마지막으로 적격 구조의 단편적 카운트는 목적언어 측에서 적격 구조를 가진 규칙의 상대적 빈도를 계산하는데 사용될 수 있다.
Figure PCTKR2011003968-appb-I000007
포레스트 기반 의존관계 언어 모델 학습(Forest-based Dependency Language Model Trainings)
의존관계 포레스트로부터 의존관계 언어 모델을 학습하기 위해, 모든 헤드와 그의 의존단어를 수집해야 한다. 이것은 모든 하이퍼에지를 나열함으로써 쉽게 할 수 있다. 유사하게 인사이드-아웃사이드 알고리즘을 이용하여 각 하이퍼에지 e의 사후 확률을 계산한다.
Figure PCTKR2011003968-appb-I000008
예를 들어, 도 4에서 하이퍼에지 e2 의 후방 확률은 다음과 같이 계산된다.
Figure PCTKR2011003968-appb-I000009
그러면 하이퍼에지 e의 단편적 빈도를 구할 수 있다.
Figure PCTKR2011003968-appb-I000010
각 n-gram(예를 들어, "boy-as-head a"은 자신이 속하는 하이퍼에지의 동일한 단편적 빈도가 할당된다.
표 1은 중국어-영어 테스트 세트에 대한 BLEU 스코어 및 평균 디코딩 시간을 나타낸다.
표 1
Rule DepLM NIST2004 NIST2005 NIST2006 time
tree tree 32.99 29.55 30.10 18.6
tree forest 33.55* 30.12* 30.88* 23.3
forest tree 33.43* 30.10* 30.55* 20.9
forest forest 34.37** 30.90** 31.51** 27.7
표 1에서 첫 번째 번역 시스템(기본 번역 시스템)은 최선 1개의 의존 트리로부터 학습된 의존관계 언어 모델 및 규칙 테이블을 사용하였고, 나머지 번역 시스템은 의존관계 언어 모델 및 규칙 테이블 중 적어도 하나에 의존관계 포레스트를 적용하였다. * 또는 **는 기본 번역 시스템보다 유의미하게 성능이 좋다는 것이다.
우선 중국어-영어 평가 집합 상에서 실험을 수행하였다. 표 1은 테스트 세트 상에서 BLEU 스코어를 나타낸다. 첫 번째 칼럼 "Rule"은 문자열 의존 규칙이 최선 1개 의존 트리 또는 의존관계 포레스트로부터 학습되었는지를 가리킨다. 유사하게 두 번째 칼럼 "DepLM"은 또한 학습 의존관계 언어 모델에 대한 두 개의 원시언어를 구별한다.
기본 번역 시스템은 최선 1개의 의존 트리로부터 학습된 의존관계 언어 모델 및 규칙 테이블을 사용하였다. 본 발명의 실시예에서는 의존관계 포레스트로부터 획득된 규칙 테이블 및 의존관계 언어 모델을 추가하여 +1.3~+1.4 BLEU 포인트 범위에서 일관성 있고 유의미하게 문자열 의존 번역을 향상시킨다. 또한, 의존관계 포레스트로부터 학습된 규칙 테이블 및 의존관계 언어 모델을 사용하더라도 디코딩 시간은 약간만 증가한다.
표 2는 한국어-중국어 테스트 세트에 대한 BLEU 스코어를 나타낸다. 다른 언어 쌍에 대한 본 발명의 효율성을 검사하기 위해, 한국어-중국어 번역에 대한 실험을 수행하였다. 학습 말뭉치는 약 8.2M 한국어 단어 및 7.3M 중국어 단어를 포함한다. 중국어 문장은 3-gram 의존관계 언어 모델뿐만 아니라 5-gram 의존관계 언어 모델을 학습하는데 사용되었다. 개발 및 테스트 세트 모두 단일 기준(single reference)을 가진 1,006개의 문장을 포함한다. 표 2는 테스트 세트 상의 BLEU 스코어를 나타낸다. 역시 본 발명에 의한 포레스트 기반 방식이 기본 번역에 비하여 상당한 향상을 가져옴을 알 수 있다.
표 2
Rule DepLM NIST2004
tree tree 32.99
tree forest 33.55*
forest tree 33.43*
forest forest 34.37**
도 5는 본 발명의 실시예에 따른 통계적 기계 번역 장치의 내부 구성을 나타낸 것이다. 통계적 기계 번역 장치는 크게 학습(training) 부분과 디코딩(decoding) 부분으로 구성된다.
학습 부분의 동작을 간단히 설명하면, 먼저 의존 분석기(dependency parser)가 병렬 말뭉치(bilingual corpus)의 원시문장(source)과 목적문장(target)에 대해 구문분석(parsing)을 수행한다. 의존 분석에 따라 원시문장과 목적문장에 대한 의존 트리가 생성된다. 의존 분석기는 생성된 다수의 의존 트리를 결합하여 원시문장과 목적문장에 대한 각각의 의존관계 포레스트를 생성한다.
번역 규칙 추출기는 의존관계 포레스트를 이용하여 번역 규칙을 생성하고 생성된 번역 규칙을 번역 규칙 테이블(Rule Table)에 저장한다. 또한 의존관계 언어 모델 학습기는 목적문장에 대한 의존관계 포레스트를 이용하여 의존관계 언어 모델을 생성하고 생성된 의존관계 언어 모델을 언어 모델 데이터베이스(DLM)에 저장한다.
디코딩 부분의 동작을 간단히 살펴보면, 원시언어 텍스트(Input)는 디코더로 입력되고 디코더는 번역 규칙 및 의존관계 언어 모델을 이용하여 목적언어 텍스트(Output)를 생성하게 된다. 디코더는 의존관계 포레스트로부터 생성된 번역 규칙 및 의존관계 언어 모델을 이용하여 번역 성능을 향상시킬 수 있다.
한편, 본 발명은 상기 의존관계 포레스트를 이용한 번역 규칙 생성 및 이를 이용한 기계 번역 방법을 소프트웨어적인 프로그램으로 구현하여 컴퓨터로 읽을 수 있는 소정 기록매체에 기록해 둠으로써 다양한 재생장치에 적용할 수 있다. 다양한 재생장치는 PC, 노트북, 휴대용 단말 등일 수 있다.
예컨대, 기록매체는 각 재생장치의 내장형으로 하드디스크, 플래시 메모리, RAM, ROM 등이거나, 외장형으로 CD-R, CD-RW와 같은 광디스크, 콤팩트 플래시 카드, 스마트 미디어, 메모리 스틱, 멀티미디어 카드일 수 있다.
본 발명의 명세서에 개시된 실시 예들은 본 발명을 한정하는 것이 아니다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.
본 발명은 병렬 말뭉치로부터 의존관계를 분석하여 다수의 의존 트리를 생성하고 생성된 다수의 의존 트리를 결합하여 의존관계 포레스트를 생성하고 의존관계 포레스트를 이용하여 번역 규칙 및 의존관계 언어 모델을 생성한 후 원시언어 텍스트를 목적언어 텍스트로 변환할 때 상기 생성된 번역 규칙 및 의존관계 언어 모델을 적용함으로써 번역 성능을 높일 수 있기 때문에 통계적 기계 번역 분야에서 널리 사용될 수 있다.

Claims (19)

  1. 다수의 의존 트리가 결합된 의존관계 포레스트를 이용하여 번역 규칙을 추출하는 것을 특징으로 하는 번역 규칙 생성 방법.
  2. 제 1 항에 있어서,
    상기 의존관계 포레스트의 각 노드는 하이퍼에지에 의해 연결되며 상기 하이퍼에지는 공통의 헤드를 가진 모든 의존단어를 묶는 것을 특징으로 하는 번역 규칙 생성 방법.
  3. 제 2 항에 있어서,
    상기 노드는 스팬에 의해 구별되는 것을 특징으로 하는 번역 규칙 생성 방법.
  4. 제 1 항에 있어서,
    상기 의존관계 포레스트는 원시문장 문자열과 정렬되고 문자열 의존관계 포레스트 정렬 말뭉치(string-to-forest aligned corpus)로부터 번역 규칙을 추출하는 것을 특징으로 하는 번역 규칙 생성 방법.
  5. 제 2 항에 있어서,
    상기 노드에 대한 적격 구조를 탐색하여 각 노드에 대한 복수의 최선 적격 구조를 유지하는 것을 특징으로 번역 규칙 생성 방법.
  6. 제 5 항에 있어서,
    상기 복수의 최선 적격 구조는 상기 노드의 의존단어의 고정 구조를 연결하여 구하는 것을 특징으로 하는 번역 규칙 생성 방법.
  7. 제 6 항에 있어서,
    상기 적격 구조내의 의존 구조가 단어 정렬과 일치하면 번역 규칙을 추출하는 것을 특징으로 하는 번역 규칙 생성 방법.
  8. 언어 쌍 말뭉치에 대한 의존 분석을 수행하는 단계와,
    상기 의존 분석에 의해 의존 트리를 생성하고 다수의 의존 트리를 결합하여 의존관계 포레스트를 생성하는 단계와,
    상기 의존관계 포레스트 내의 각 노드에 대한 다수의 적격 구조를 탐색하는 단계와,
    상기 다수의 적격 구조 내의 의존 구조가 단어 정렬과 일치하면 번역 규칙을 추출하는 단계를 포함하는 것을 특징으로 하는 번역 규칙 생성 방법.
  9. 제 8 항에 있어서,
    상기 다수의 적격 구조는 k개의 최선 고정 및 유동 구조로서 상기 노드의 의존단어의 고정 구조를 조작하여 구하는 것을 특징으로 하는 번역 규칙 생성 방법.
  10. 다수의 의존 트리가 결합된 의존관계 포레스트로부터 생성된 번역 규칙 및 의존관계 언어 모델을 이용하여 원시언어를 번역하는 것을 특징으로 하는 통계적 기계 번역 방법.
  11. 제 10 항에 있어서,
    상기 의존관계 포레스트의 각 노드는 하이퍼에지에 의해 연결되며 상기 하이퍼에지는 공통의 헤드를 가진 모든 의존단어를 묶는 것을 특징으로 하는 통계적 기계 번역 방법.
  12. 제 11 항에 있어서,
    상기 의존관계 포레스트의 모든 하이퍼에지를 나열하여 모든 헤드 및 그의 의존단어를 수집하고 수집된 정보로부터 상기 의존관계 언어 모델을 생성하는 것을 특징으로 하는 통계적 기계 번역 방법.
  13. 언어 쌍 말뭉치에 대한 의존 분석을 수행하여 의존 트리를 생성하고 다수의 의존 트리를 결합하여 의존관계 포레스트를 생성하는 수단과,
    상기 의존관계 포레스트 내의 각 노드에 대한 다수의 적격 구조를 탐색하는 수단과,
    상기 다수의 적격 구조 내의 의존 구조가 단어 정렬과 일치하면 번역 규칙을 추출하는 수단을 포함하는 것을 특징으로 하는 번역 규칙 생성 장치.
  14. 제 13 항에 있어서,
    상기 다수의 적격 구조는 k개의 최선 고정 및 유동 구조로서 상기 노드의 의존단어의 고정 구조를 조작하여 구하는 것을 특징으로 하는 번역 규칙 생성 장치.
  15. 언어 쌍 말뭉치의 원시문장 및 목적문장을 의존 분석하여 의존 트리를 생성하고 다수의 의존 트리를 결합하여 상기 원시문장 및 목적문장에 대한 의존관계 포레스트를 생성하는 의존 분석기와,
    상기 의존관계 포레스트를 이용하여 번역 규칙을 추출하는 번역 규칙 추출기와,
    상기 목적문장의 의존관계 포레스트를 이용하여 의존관계 언어 모델을 생성하는 언어 모델 학습기와,
    상기 번역 규칙 및 의존관계 언어 모델을 적용하여 원시언어 텍스트를 목적언어 텍스트로 변환하는 디코더를 포함하는 것을 특징으로 하는 통계적 기계 번역 장치.
  16. 제 15 항에 있어서,
    상기 의존 분석기는 다수의 의존 트리를 구성하는 노드를 하이퍼에지에 의해 연결하여 의존관계 포레스트를 생성하고, 상기 하이퍼에지는 공통의 헤드를 가진 모든 의존단어를 묶는 것을 특징으로 하는 통계적 기계 번역 장치.
  17. 제 16 항에 있어서,
    상기 번역 규칙 추출기는 상기 의존관계 포레스트 내의 각 노드에 대한 다수의 적격 구조를 탐색하고 상기 다수의 적격 구조 내의 의존 구조가 단어 정렬과 일치하면 번역 규칙을 추출하는 것을 특징으로 하는 통계적 기계 번역 장치.
  18. 제 16 항에 있어서,
    상기 언어 모델 학습기는 상기 의존관계 포레스트의 모든 하이퍼에지를 나열하여 모든 헤드 및 그의 의존단어를 수집하고 수집된 정보로부터 상기 의존관계 언어 모델을 생성하는 것을 특징으로 하는 통계적 기계 번역 장치.
  19. 제 1 항 내지 제 12 항 중 어느 한 항에 의한 과정을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2011/003968 2010-08-23 2011-05-31 의존관계 포레스트를 이용한 통계적 기계 번역 방법 WO2012026668A2 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201180040952.0A CN103154939B (zh) 2010-08-23 2011-05-31 使用依存丛林的统计机器翻译方法
US13/818,137 US20130158975A1 (en) 2010-08-23 2011-05-31 Statistical machine translation method using dependency forest
US15/968,078 US10303775B2 (en) 2010-08-23 2018-05-01 Statistical machine translation method using dependency forest

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2010-0081378 2010-08-23
KR1020100081378A KR101732634B1 (ko) 2010-08-23 2010-08-23 의존관계 포레스트를 이용한 통계적 기계 번역 방법

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/818,137 A-371-Of-International US20130158975A1 (en) 2010-08-23 2011-05-31 Statistical machine translation method using dependency forest
US15/968,078 Continuation US10303775B2 (en) 2010-08-23 2018-05-01 Statistical machine translation method using dependency forest

Publications (2)

Publication Number Publication Date
WO2012026668A2 true WO2012026668A2 (ko) 2012-03-01
WO2012026668A3 WO2012026668A3 (ko) 2012-04-19

Family

ID=45723876

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/003968 WO2012026668A2 (ko) 2010-08-23 2011-05-31 의존관계 포레스트를 이용한 통계적 기계 번역 방법

Country Status (4)

Country Link
US (2) US20130158975A1 (ko)
KR (1) KR101732634B1 (ko)
CN (1) CN103154939B (ko)
WO (1) WO2012026668A2 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9996567B2 (en) * 2014-05-30 2018-06-12 Georgetown University Process and framework for facilitating data sharing using a distributed hypergraph
US11226945B2 (en) * 2008-11-14 2022-01-18 Georgetown University Process and framework for facilitating information sharing using a distributed hypergraph
KR101356417B1 (ko) * 2010-11-05 2014-01-28 고려대학교 산학협력단 병렬 말뭉치를 이용한 동사구 번역 패턴 구축 장치 및 그 방법
US8935151B1 (en) * 2011-12-07 2015-01-13 Google Inc. Multi-source transfer of delexicalized dependency parsers
CN104239290B (zh) * 2014-08-08 2017-02-15 中国科学院计算技术研究所 基于依存树的统计机器翻译方法及系统
CN104991890A (zh) * 2015-07-15 2015-10-21 昆明理工大学 一种基于汉越词对齐语料构建越南语依存树库的方法
CN106383818A (zh) * 2015-07-30 2017-02-08 阿里巴巴集团控股有限公司 一种机器翻译方法及装置
CN105573994B (zh) * 2016-01-26 2019-03-22 沈阳雅译网络技术有限公司 基于句法骨架的统计机器翻译系统
US10740348B2 (en) * 2016-06-06 2020-08-11 Georgetown University Application programming interface and hypergraph transfer protocol supporting a global hypergraph approach to reducing complexity for accelerated multi-disciplinary scientific discovery
US11417415B2 (en) * 2018-08-10 2022-08-16 International Business Machines Corporation Molecular representation
US11030168B2 (en) * 2018-12-11 2021-06-08 Sap Se Parallelization of order dependent procedures during software change processes
US11003880B1 (en) 2020-08-05 2021-05-11 Georgetown University Method and system for contact tracing

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8249856B2 (en) * 2008-03-20 2012-08-21 Raytheon Bbn Technologies Corp. Machine translation
CN101398815B (zh) * 2008-06-13 2011-02-16 中国科学院计算技术研究所 一种机器翻译方法
US8285536B1 (en) * 2009-07-31 2012-10-09 Google Inc. Optimizing parameters for machine translation

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HAITAO MI ET AL.: 'Constituency to Dependency Translation with Forests' PROCEEDINGS OF ACL 2010 16 July 2010, pages 1433 - 1442 *
HAITAO MI ET AL.: 'Forest-based Translation Rule Extraction' PROCEEDING OF EMNLP 2008 27 October 2008, pages 206 - 214 *
YANG LIU ET AL.: 'Improving Tree-to-Tree Translation with Packed Forest' PROCEEDINGS OF ACL/IJCNLP 2009 07 August 2009, pages 558 - 566 *

Also Published As

Publication number Publication date
US20130158975A1 (en) 2013-06-20
WO2012026668A3 (ko) 2012-04-19
KR20120021933A (ko) 2012-03-09
CN103154939A (zh) 2013-06-12
KR101732634B1 (ko) 2017-05-08
CN103154939B (zh) 2016-04-27
US10303775B2 (en) 2019-05-28
US20180314690A1 (en) 2018-11-01

Similar Documents

Publication Publication Date Title
WO2012026668A2 (ko) 의존관계 포레스트를 이용한 통계적 기계 번역 방법
WO2012060540A1 (ko) 구문 구조 변환 모델과 어휘 변환 모델을 결합한 기계 번역 장치 및 기계 번역 방법
WO2014025135A1 (ko) 문법 오류 검출 방법, 이를 위한 오류검출장치 및 이 방법이 기록된 컴퓨터로 판독 가능한 기록매체
WO2012026667A2 (ko) 토큰 분리 및 번역 과정을 통합한 통합 디코딩 장치 및 그 방법
WO2017010652A1 (ko) 자동질의응답 방법 및 그 장치
KR100530154B1 (ko) 변환방식 기계번역시스템에서 사용되는 변환사전을생성하는 방법 및 장치
WO2014069779A1 (ko) 구문 전처리 기반의 구문 분석 장치 및 그 방법
WO2016208941A1 (ko) 텍스트 전처리 방법 및 이를 수행하는 전처리 시스템
WO2015050321A1 (ko) 자율학습 정렬 기반의 정렬 코퍼스 생성 장치 및 그 방법과, 정렬 코퍼스를 사용한 파괴 표현 형태소 분석 장치 및 그 형태소 분석 방법
Huang et al. Soft syntactic constraints for hierarchical phrase-based translation using latent syntactic distributions
Fung et al. BiFrameNet: bilingual frame semantics resource construction by cross-lingual induction
KR20080052282A (ko) 통계적 기계번역 시스템에서 단어 및 구문들간의 번역관계를 자율적으로 학습하기 위한 장치 및 그 방법
Banik et al. Statistical-based system combination approach to gain advantages over different machine translation systems
WO2012008684A2 (ko) 계층적 구문 기반의 통계적 기계 번역에서의 번역규칙 필터링과 목적단어 생성을 위한 방법 및 장치
WO2012060534A1 (ko) 병렬 말뭉치를 이용한 동사구 번역 패턴 구축 장치 및 그 방법
WO2012030053A2 (ko) 병렬 말뭉치의 구 정렬을 이용한 숙어 표현 인식 장치 및 그 방법
Volk et al. Parallel corpora, terminology extraction and machine translation
JP5924677B2 (ja) 機械翻訳装置、機械翻訳方法、およびプログラム
Nguyen et al. A tree-to-string phrase-based model for statistical machine translation
Arora et al. Comparative analysis of phrase based, hierarchical and syntax based statistical machine translation
JP4588657B2 (ja) 翻訳装置
Nakazawa et al. EBMT System of KYOTO Team in PatentMT Task at NTCIR-9.
Sanguinetti et al. Dependency and constituency in translation shift analysis
Sánchez-Martínez et al. Using alignment templates to infer shallow-transfer machine translation rules
JP2632806B2 (ja) 言語解析装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180040952.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11820096

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 13818137

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 11/06/2013)

122 Ep: pct application non-entry in european phase

Ref document number: 11820096

Country of ref document: EP

Kind code of ref document: A2