JP2002197085A - Automatic natural language translation system - Google Patents

Automatic natural language translation system

Info

Publication number
JP2002197085A
JP2002197085A JP2001358589A JP2001358589A JP2002197085A JP 2002197085 A JP2002197085 A JP 2002197085A JP 2001358589 A JP2001358589 A JP 2001358589A JP 2001358589 A JP2001358589 A JP 2001358589A JP 2002197085 A JP2002197085 A JP 2002197085A
Authority
JP
Japan
Prior art keywords
translation
sentence
natural language
dictionary
rules
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001358589A
Other languages
Japanese (ja)
Inventor
Glenn A Akers
グレン エイ. エイカーズ,
Susumu Kuno
▲すすむ▼ 久野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOGO VISTA CORP
Original Assignee
LOGO VISTA CORP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LOGO VISTA CORP filed Critical LOGO VISTA CORP
Priority to JP2001358589A priority Critical patent/JP2002197085A/en
Publication of JP2002197085A publication Critical patent/JP2002197085A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an automatic translation system from a certain natural language into another natural language, preferably from English into Japanese. SOLUTION: This automatic natural language translation system receives a text sentence in a source natural language (preferably English) and translate it into an objective natural language (preferably Japanese). In addition, an operator can automatically retranslate a selected part of a source text by using the system. The system includes some pieces of improvement to aim at use of values of probability in relation to direction words of a dictionary to make primary translation of a document including phrases with different translated words in different fields more exact, to specify some grammatical rules as a control means to exclude inappropriate translation and to remove the inappropriate translation.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ある自然言語から
他の自然言語への、好適には英語から日本語への自動翻
訳に関する。
The present invention relates to automatic translation from one natural language to another, preferably from English to Japanese.

【0002】[0002]

【従来の技術】自然言語の機械翻訳については種々の方
式が提案されてきた。通常、翻訳に使用されるシステム
は、ある言語での入力を受信し、その受信した入力を処
理し、他の言語で出力するコンピュータを含む。このタ
イプの翻訳は従来正確なものではなく、そのために、熟
練したオペレータが出力結果にかなり手を加えなければ
ならない。従来のシステムによる翻訳作業は、一般に構
造変換操作を含む。この構造変換の目的は、ソース言語
の文の解析ツリー(すなわち、構文構造ツリー)を目的
言語に対応するツリーに変換することである。現在まで
二つのタイプの構造変換方式が試みられてきた。すなわ
ち、文法に基づく変換と、テンプレート間の変換であ
る。
2. Description of the Related Art Various methods have been proposed for machine translation of a natural language. Typically, systems used for translation include a computer that receives input in one language, processes the received input, and outputs it in another language. This type of translation has heretofore not been accurate and requires a skilled operator to significantly modify the output. Translation work by conventional systems generally involves a structure conversion operation. The purpose of this structure conversion is to convert the parse tree of the source language sentence (that is, the syntax structure tree) into a tree corresponding to the target language. Up to now, two types of structure conversion methods have been tried. That is, conversion based on grammar and conversion between templates.

【0003】文法に基づく変換の場合には、構造変換の
領域は、ソース言語の解析ツリー(すなわち、与えられ
たノードの直接のこどもであるサブノードの集合)を得
るために使用される文法規則の領域に限定される。例え
ば、次の式があるときVP=VT01+NP(動詞句
は、目的語が一つの他動詞と、名詞句がこの順序で並ん
でいる。)そして、日本語は、1+2=>2+1 (V
T01とNPの順序が逆になっている。)
In the case of a grammar-based transformation, the domain of the structural transformation is the grammar rules used to obtain the source language parse tree (ie, the set of subnodes that are the direct children of a given node). Limited to the area. For example, when there is the following expression, VP = VT01 + NP (the verb phrase has one transitive verb and the noun phrase arranged in this order.) Then, for Japanese, 1 + 2 => 2 + 1 (V
The order of T01 and NP is reversed. )

【0004】[0004]

【発明が解決しようとする課題】規則の適用を含むソー
ス言語の解析ツリーは、構造的には動詞と目的語の順序
が反対になるように変換される。日本語では動詞は目的
語のあとに来るからである。この方法は、ソース言語の
解析ツリーを得るために規則が使用された場所で正確に
適用され、特定の変換が行われた場所をすぐ見つけるこ
とができるという点で非常に効率的である。一方、上に
述べたように、その領域が大幅に制限されているという
点、また自然言語は、こどもではないノードにまたがる
ような変換規則を必要とする場合があるという点で、変
換機構としては弱いものである。
The parse tree of the source language, including the application of rules, is structurally transformed such that the order of verbs and objects is reversed. In Japanese, the verb comes after the object. This method is very efficient in that it is applied exactly where the rules were used to obtain the source language parse tree, and that it can quickly find where a particular transformation has taken place. On the other hand, as described above, the conversion mechanism is largely limited in that its area is greatly restricted, and that natural language may require conversion rules that span non-child nodes. Is weak.

【0005】テンプレート間の変換では、構造変換は、
入出力(I/O)テンプレートまたはサブツリーの形で
指定される。ある入力テンプレートがある構造ツリーと
一致した場合には、そのテンプレートと一致する構造ツ
リー部分が、対応する出力テンプレートで指定されたと
おりに変換される。これは非常に強力な変換機構である
が、与えられた入力テンプレートが、存在する構造ツリ
ーのどの部分と一致するかを見つけるのにかなりの時間
がかかり、処理コストが高くなることがある。
In the conversion between templates, the structural conversion is
It is specified in the form of an input / output (I / O) template or subtree. If an input template matches a structure tree, the structure tree portion that matches that template is converted as specified in the corresponding output template. Although this is a very powerful transformation mechanism, it can take a considerable amount of time to find which part of an existing structure tree matches a given input template, which can be expensive.

【0006】[0006]

【課題を解決するための手段】本発明の自動自然言語翻
訳システムは、従来の機械翻訳装置と比較すると多くの
利点を持つ。システムが、自動的に入力テキスト情報の
可能で最も適切な翻訳を提供し、ユーザにその出力(好
適には、英語の入力テキストの日本語訳)を供給した後
で、ユーザは、表示された翻訳結果に手を入れるため
に、または自動的に他の翻訳を入手するために、このシ
ステムと対話することができる。本発明の自動自然言語
翻訳システムを操作する人は、これでいいと判断した翻
訳の結果の部分はそのまま保持しながら、残りの部分を
自動的に再翻訳させることができる。この選択的な再翻
訳を行うことにより、再翻訳を必要とする部分に対して
のみ翻訳が行われるので、操作する人は時間を節約する
ことができ、潜在的に多くの不正確な部分はあるとして
も、翻訳としては非常に質の高い部分を検討するという
退屈な仕事を手短かに済ますことができる。さらに、こ
のシステムでは、種々の翻訳調整を行うことができるの
で、通常は、翻訳の最終構造の多くがシステムによって
作成される。したがって、このシステムを使用すること
により、人間(オペレータ)による潜在的なミスを少な
くし、文の構造、人称や時制の一致の変更などの手直し
に要する時間が節約できる。このシステムはオペレータ
に広範囲で正確な文法とスペルに関する知識を提供でき
るようになっている。
SUMMARY OF THE INVENTION The automatic natural language translation system of the present invention has many advantages over conventional machine translation devices. After the system automatically provides the possible and most appropriate translation of the input text information and supplies the user with its output (preferably a Japanese translation of the English input text), the user You can interact with this system to manipulate the translation results or to automatically get other translations. A person who operates the automatic natural language translation system of the present invention can automatically re-translate the remaining part while retaining the part of the translation result determined to be satisfactory. This selective retranslation saves time for the operator because only those parts that need to be retranslated are translated, and potentially many inaccurate parts are If there is, it can save the tedious task of examining the very high quality parts of the translation. In addition, since many translation adjustments can be made in this system, usually the final structure of the translation is often created by the system. Thus, by using this system, potential mistakes by humans (operators) are reduced, and the time required for reworking, such as changing sentence structure, personality or tense, can be saved. The system provides operators with extensive and accurate grammar and spelling knowledge.

【0007】本発明の自動自然言語翻訳システムは、ソ
ース言語に含まれる文章の区切りのさまざまな曖昧性処
理と、強力な意味伝達機能により、翻訳文はさらに正確
なものになり、オペレータの翻訳の手直しに要する時間
が短くてすむようになる。特定のユーザの好みに合わせ
てシステムが記憶していく学習統計情報によっても、翻
訳の質はさらに改善される。本システムの熟語処理方法
は、熟語を構成する語句を含んでいる文があるとき、熟
語そのものの意味を考えることなく、正確に訳すことが
できるという利点を持つ。本システムは効率的であるば
かりでなく、関連の低い特性を一致させるという多様な
機能を持つ。本システムの構造バランスエキスパートお
よび同格構造エキスパートは、目的とする解析と目的と
しない解析とを効率的に見分ける。大文字化エキスパー
トは、効率的に文中の大文字の単語を正確に解釈し、大
文字列手順は、普通名詞としての解釈を完全には無視し
ないで、複合語の固有名詞を効率的に処理する。
According to the automatic natural language translation system of the present invention, the translated sentence becomes more accurate due to various ambiguity processing of sentence breaks included in the source language and a powerful semantic transmission function, and the translation of the operator's translation is made more accurate. The time required for rework is reduced. The quality of translation is further improved by the learning statistics that the system stores in accordance with the preferences of a particular user. The idiom processing method of the present system has the advantage that when there is a sentence containing a phrase that forms a idiom, it can be accurately translated without considering the meaning of the idiom itself. The system is not only efficient, but also has a variety of functions to match less relevant characteristics. The structural balance expert and the peer structural expert of the present system efficiently discriminate target analysis from non-target analysis. The capitalization expert efficiently interprets uppercase words in sentences efficiently and the capitalization procedure efficiently processes proper nouns in compound words without completely ignoring interpretation as common nouns.

【0008】ある観点から見た場合、本発明は、自動自
然言語翻訳システムの改良に関するものであり、この場
合、この改良は翻訳を助けるための「自動領域識別子」
の使用に関する。領域には、ある特定の用法やある特定
の人たちに帰属する用語や用法パターンの集合を含む。
例えば、領域としては、ビジネス通信文、マーケティン
グ文書、コンピュータ関連の文書、物理学などの技術分
野の文書などが考えられる。辞書に含まれる言葉に中に
は、ある特定の領域で使われたときは、目的自然言語
(例えば、日本語)のある訳語になるが、他の領域で使
用されたり、または分野に関係なく使用された場合は、
意味が異なってくる場合がある。領域キーワードのリス
トも使用される。キーワードは、各領域と関連する領域
特有の単語や用語であり、ソース自然言語(またはソー
ス文書)の特定の文が、いずれの領域に属するかどうか
を決定するために使用される。「自動領域識別子」機能
は、その文(または文書)が特定の領域の文章であると
判断するのに十分なキーワードが、その文(または、そ
の文書または文書の一部)に、含まれているかどうかを
判断する。もし領域が特定できれば、辞書にも載ってい
て、翻訳中の文(または文書)にも含まれている単語は
確率の値を引き上げて使用し、その文章(または文書)
の翻訳が行われる。「自動領域識別子」による決定は、
ソース自然言語およびキーワードのみに基づいて行われ
る。本発明の「自動領域識別子」機能は、結果のツリー
構造内に、領域不適合分析(特定の領域には適合しない
という分析)は含まず、そのためシステムの翻訳時間は
速くなる。
[0008] In one aspect, the present invention relates to an improvement in an automatic natural language translation system, wherein the improvement includes an "automatic region identifier" to aid translation.
Regarding the use of The domain includes a set of terms and usage patterns belonging to a certain usage or a certain person.
For example, a business message, a marketing document, a computer-related document, a document in a technical field such as physics, or the like can be considered as an area. Some words included in the dictionary, when used in a certain domain, become a translation of the target natural language (for example, Japanese), but are used in other domains or regardless of the field. If used,
The meaning may be different. A list of domain keywords is also used. Keywords are domain-specific words or terms associated with each region, and are used to determine to which region a particular sentence of the source natural language (or source document) belongs. The "automatic region identifier" function includes a keyword (or document or part of a document) containing enough keywords to determine that the sentence (or document) is a sentence of a specific region. Judge whether it is. If the area can be identified, words that are listed in the dictionary and are also included in the sentence (or document) being translated are used with an increased probability value, and the sentence (or document) is used.
Translation is performed. The determination by "automatic area identifier"
It is based solely on source natural language and keywords. The "automatic region identifier" feature of the present invention does not include region mismatch analysis (analysis of not matching a particular region) in the resulting tree structure, thus speeding up the translation time of the system.

【0009】他の観点から見ると、本発明は、自動自然
言語翻訳システムのもう一つの改良に関する。その改良
というのは、「オールマイティ」や「品詞優先」とマー
ク付けするか、または「マークなし」という文法規則を
使用した、ソース自然言語の文の解析に関する。「オー
ルマイティ」文法規則は、それによりその文の同じ部分
を解析するようなすべての他の規則を排除する規則であ
る。「品詞優先」文法規則は、それによりその文の同じ
部分を解析するようなすべての他の規則を排除する規則
であるが、これは、他の規則が同じ品詞を持っている場
合に限って行われる。「マークなし」文法規則は他のい
ずれの規則に対しても優先権は持たない。「オールマイ
ティ」や「品詞優先」のマーク付け文法規則は、この規
則がない場合にはシステムの翻訳エンジンによって作ら
れるツリー構造のうちから、関係のない文法解釈ツリー
を除去するのに有効な方法である。このようなマーク付
け文法規則は、時間およびメモリ容量の点で、より効果
的に解析を行うことができる。つまり、システムの翻訳
時間を短縮することができる。何故なら、翻訳エンジン
は、マーク付けしなければ作られるかもしれない大きな
ツリー構造を作らなくてすむからである。また、翻訳エ
ンジンは、マーク付けしなければ記憶しなければならな
い大きなツリー構造を記憶しないですむことから、メモ
リ(例えば、RAM)領域を解放することができる。
In another aspect, the present invention relates to another improvement of an automatic natural language translation system. The improvements involve parsing source natural language sentences that are marked as "almighty" or "part-of-speech," or use the grammar rule "unmarked." An "almighty" grammar rule is a rule by which all other rules that parse the same part of the sentence are excluded. The “part of speech first” grammar rule is a rule that excludes all other rules that thereby parse the same part of the sentence, but only if the other rules have the same part of speech. Done. The "unmarked" grammar rule has no precedence over any other rules. Marking grammar rules such as "almighty" or "part of speech priority" are effective ways to remove irrelevant grammatical interpretation trees from the tree structure created by the system's translation engine in the absence of these rules. It is. Such a marking grammar rule can be analyzed more effectively in terms of time and memory capacity. That is, the translation time of the system can be reduced. This is because the translation engine does not have to create large tree structures that might otherwise be created without marking. Also, the translation engine can free up memory (eg, RAM) space because it does not have to store large tree structures that must be stored if not marked.

【0010】さらに他の観点から見ると、本発明は、自
動自然言語翻訳システムのさらに他の改良に関する。こ
れは、最終ツリー構造の構成要素になる可能性が非常に
低いか、絶対にないというマークが付けられた見出し語
を持つ辞書を使用する解析に関連した改良である。辞書
に複合語の見出し語が含まれていて、その中の少なくと
も一つの複合語が非常に低い確率の値を持っていると
き、この低い確率の値は、その見出し語がソース自然言
語の任意の文の正しい解析ツリーでも特定の品詞として
機能する可能性がありそうもないことを示す。ある入力
文の解析ツリー構造の中に、マークが付けられている見
出し語が含まれる場合には、マークが付いている見出し
語に関連する確率の値が低いから、その解析ツリーがそ
の文に対して正確である確率は非常に小さくなる。この
確率の値を使用することにより、システムの翻訳エンジ
ンが作ったツリー構造の不要な部分を排除することがで
きる。
[0010] In yet another aspect, the present invention relates to yet another improvement of an automatic natural language translation system. This is an improvement related to parsing using a dictionary with headwords that are very unlikely or never to be a component of the final tree structure. If the dictionary contains a compound headword and at least one of the compounds has a very low probability value, this low probability value indicates that the headword has any value in the source natural language. Indicates that it is unlikely that the correct parse tree of the sentence could function as a particular part of speech. If the parse tree structure of an input sentence includes a headword that is marked, the parse tree is included in the sentence because the probability value associated with the headword that is marked is low. On the other hand, the probability of being accurate is very small. By using this probability value, unnecessary parts of the tree structure created by the translation engine of the system can be eliminated.

【0011】本発明の上記および他の目的、特色、特徴
および利点は、以下の説明と請求の範囲を読めば明らか
になる。
The above and other objects, features, features and advantages of the present invention will become apparent upon reading the following description and the appended claims.

【0012】[0012]

【発明の実施の形態】最初に、図面を参照しないで、本
発明の自動自然言語翻訳システムの概要を説明する。こ
の概要を説明した後で、図面を参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First, an outline of an automatic natural language translation system of the present invention will be described without referring to the drawings. After describing the outline, description will be made with reference to the drawings.

【0013】自動自然言語翻訳システムは、ソース自然
言語を目的自然言語に翻訳することができる。好適な具
体例として、上記システムは英語を日本語に翻訳する。
上記システムは、ソース自然言語と、目的自然言語への
翻訳を作る翻訳エンジンとを受付け、記憶する装置と;
ユーザに翻訳結果を表示するための装置と;ユーザに対
して別の翻訳結果を提供し表示するための装置とを含
む。このシステムの具体例としては、翻訳エンジンは、
プリパーサー、パーサー、グラフ作成装置、評価子、グ
ラフ・スコアラ、文法構造抽出装置および構造変換装置
を含む。プリパーサーは、入力テキストを検査し、入力
文の文末認定の曖昧な箇所を解析する。その後、プリパ
ーサーは、辞書の見出し語を含む解析チャートで、入力
テキストを作成し表示する。パーサーは、入力テキスト
に対する可能な構文の分類を入手するために、上記チャ
ートの解析を行う。グラフ作成装置は、解析チャートに
基づいて、入力テキストの可能な構文解釈のグラフを作
る。このグラフには、入力テキストの可能な解釈に関連
するノードとサブノードが含まれる。一連のエキスパー
トを含む評価子は、解釈の可能なグラフを評価し、グラ
フのノードとサブノードにエキスパートの重みを加え
る。グラフ・スコアラは、サブノードを評価するために
エキスパートの重みを使用し、その後でN個の上位のス
コアと各ノードとを関連づける。文法構造抽出装置は、
解析ツリー構造をグラフ・スコアラが決定した好適な解
釈に割り当てる。構造変換装置は、目的言語での翻訳を
入手するために、解析ツリー構造に関する構造変換を行
う。
The automatic natural language translation system can translate a source natural language into a target natural language. In a preferred embodiment, the system translates English into Japanese.
An apparatus for receiving and storing a source natural language and a translation engine for producing a translation into a target natural language;
An apparatus for displaying a translation result to a user; and an apparatus for providing and displaying another translation result to a user. As a specific example of this system, the translation engine
Includes pre-parser, parser, graph creation device, evaluator, graph scorer, grammar structure extraction device and structure conversion device. The preparser examines the input text and analyzes the ambiguous parts of the sentence end recognition of the input sentence. The preparser then creates and displays the input text in an analysis chart that includes the dictionary headword. The parser performs an analysis of the chart to obtain a possible syntactic classification for the input text. The graphing device generates a graph of the possible parsing of the input text based on the analysis chart. The graph includes nodes and sub-nodes that are relevant to the possible interpretation of the input text. An evaluator containing a series of experts evaluates the interpretable graph and adds expert weights to the nodes and subnodes of the graph. The graph scorer uses expert weights to evaluate sub-nodes and then associates each of the N top scores with each node. The grammar structure extraction device
Assign the parse tree structure to the preferred interpretation determined by the graph scorer. The structure conversion device performs a structure conversion on the parse tree structure in order to obtain a translation in the target language.

【0014】以下の三つの段落では、(a)各サブノー
ドに対する最終加重スコアを計算するために、グラフ・
スコアラがどのようにエキスパートの重みを組み合わせ
るか;(b)最終ノード・スコアに到達するために、グ
ラフ・スコアラがどのようにサブノード・スコアを組み
合わせるか;(C)言語情報がノードとサブノードのツ
リーをどのように伝達するか、について説明する。
In the following three paragraphs: (a) To calculate the final weighted score for each subnode,
How the scorer combines expert weights; (b) how the graph scorer combines subnode scores to arrive at the final node score; and (C) the linguistic information is a tree of nodes and subnodes. Is described.

【0015】各サブノードに対する最終加重スコアを計
算するために、グラフ・スコアラは、各サブノードに定
数値を関連づける。各サブノードに関連する言語情報の
分析により、サブノードのスコアの決定が行われる。例
えば、一連のエキスパート評価子が、各ノードとサブノ
ードに記憶された言語情報を検査する図8を参照された
い。グラフ・スコアラは、特定のノードまたはサブノー
ドに対する最終加重平均を入手するために、各エキスパ
ートに対する個々の加重スコアの合計を計算する。複数
の加重スコアを一つの加重平均スコアにまとめること
は、コンピュータサイエンスにおける標準的な問題であ
る。使用できる一つの方法としては、各エキスパートの
結果に、そのエキスパートに割り当てられた定数(重
み)を掛け合わせる方法がある。各エキスパートに割り
当てられる重みは、設計時に決定しておく問題である。
設計者は各エキスパートに割り当てる優先権(重み)を
決定する。加重平均は、各数字に定数を掛け、一連の数
字を合計したものである。例えば、以下の式になる。 加重平均=(w1)*(x1)+(w2)*(x2
+...+(wn)*(xn) 但し、重みw1,w2,...,wnは、いずれも負でな
い数で、合計は1になる。例えば、統計の期待値に関す
る加重平均の使用について述べているスピーゲル著「確
率および統計の理論と問題76」(1975年、マグロ
ーヒル社)を参照されたい。
To calculate the final weighted score for each subnode, the graph scorer associates a constant value with each subnode. Analysis of the linguistic information associated with each subnode determines the score of the subnode. For example, see FIG. 8 where a series of expert evaluators examine the linguistic information stored at each node and subnode. The graph scorer computes the sum of the individual weighted scores for each expert to obtain a final weighted average for a particular node or subnode. Combining multiple weighted scores into one weighted average score is a standard problem in computer science. One method that can be used is to multiply the result of each expert by a constant (weight) assigned to that expert. The weight assigned to each expert is a matter to be determined at the time of design.
The designer determines the priority (weight) assigned to each expert. The weighted average is the sum of each number multiplied by a constant and a series of numbers. For example, the following equation is obtained. Weighted average = (w 1 ) * (x 1 ) + (w 2 ) * (x 2 )
+. . . + (W n ) * (x n ) where the weights w 1 , w 2 ,. . . , W n are non-negative numbers, and their sum is 1. See, for example, Spiegel, "Theory and Problems 76 of Probability and Statistics" (1975, McGraw-Hill, Inc.), which describes the use of weighted averages for statistical expectations.

【0016】最終ノード・スコアを入手しようとサブノ
ード・スコアを結び付けるために、グラフ・スコアラ
は、グラフの底辺の部分から一番上の部分にサブノード
・スコアを伝達することができる。各ノードがNスコア
の集合を持つグラフの場合には、一つまたは複数の伝達
方法を決定することができる。サブノード・スコアを伝
達するのに使用することができる一つの技術としては、
最適化問題を解くために使用されるある種の動的プログ
ラミングである記憶方法がある。最適化問題の解法に
は、多くの可能な数値(結果)を含むことができる。目
的は最適な数値を発見することである。最適化に使用す
るアルゴリズムは、各サブサブ問題を一回だけ解き、結
果を記憶するので、サブサブ問題に遭遇するごとに答を
再度計算する必要がなくなる。最適化問題に適用される
もっと詳細な説明については、例えば、コーメン他の
「アルゴリズムヘの招待」(1990年マグローヒル
社)の301−314ぺージを参照されたい。この「ア
ルゴリズムヘの招待」の301、302および312ぺ
ージには、グラフ内をサブノード・スコア情報を伝達さ
せるのに使用できる一つの方法が記載されている。
[0016] To combine subnode scores to obtain the final node score, the graph scorer can communicate the subnode scores from the bottom to the top of the graph. In the case of a graph in which each node has a set of N scores, one or more transmission methods can be determined. One technique that can be used to communicate subnode scores is:
There are storage methods that are some kind of dynamic programming used to solve optimization problems. Solving the optimization problem can involve many possible numbers (results). The goal is to find the optimal number. The algorithm used for optimization solves each sub-sub-problem only once and stores the result, so that it is not necessary to recalculate the answer each time a sub-sub-problem is encountered. For a more detailed description that applies to optimization problems, see, for example, Komen et al., "Invitation to Algorithms", McGraw-Hill, 1990, pp. 301-314. Pages 301, 302, and 312 of this "Invitation to Algorithm" describe one method that can be used to convey subnode score information in the graph.

【0017】言語情報をツリー内で伝達する場合には、
システムの意味を伝える部分は、意味情報を内部のより
小さい構成要素からより大きい構成要素へと伝えるよう
に動作する。意味の伝達は、解析オペレーションで使用
される統語分類の四つのクラス(SEMNP、SEMV
P、SEMADJおよびVERB)に適用される。意味
の伝達が行われる前に、ノードに記憶されている言語情
報を分析しなければならない。ノードに記憶されている
意味情報の分析は、文法規則の名詞らしい要素と動詞ら
しい要素を点検することにより、どの名詞らしい目的語
に、文法規則の動詞らしい要素のどの選択的制限スロッ
トを適用するかを言い当てる規則の集合によって導かれ
る。ジェラルド・ガズダは、その著書「プロローグの自
然言語処理」(1989年アディソン・ウエズリ出版
社)で、本明細書で開示しているグラフに類似した方向
を持った、リング状でないグラフのノードに記憶されて
いる意味情報を分析するのに使用することができる規則
の集合について説明している。ガズダは、隣接するノー
ドに関する情報と一致させる特性マッチングの使用につ
いて説明している。ガズダは、特性マッチングは、以下
に述べる式を含むと述べている。
When transmitting linguistic information in a tree,
The semantic portion of the system operates to convey semantic information from smaller internal components to larger components. The transfer of semantics is based on the four classes of syntactic classification used in the parsing operation (SEMNP, SEMV
P, SEMADJ and VERB). Before meaning transmission can take place, the linguistic information stored in the node must be analyzed. Analysis of semantic information stored in the node checks which noun-like element and verb-like element of the grammar rule apply to which nominative object and which selective restriction slot of the verb-like element of the grammar rule Guided by a set of rules that guess. Gerald Gazda, in his book "Natural Language Processing of Prologues" (Addison Wesley Publishing Company, 1989), stores in nodes of non-ring-shaped graphs that have similar orientations to the graphs disclosed herein. Describes a set of rules that can be used to analyze the semantic information being performed. Gazda describes the use of property matching to match information about neighboring nodes. Gazda states that property matching involves the equations described below.

【0018】「あるノード上に現れるいくつかの特性
は、もう一つのノード上に現れる特性と同じものである
に違いない。最新の研究は、親の分類とそれらの特性に
関連する形態素を示すことも上に現れるあるクラスの特
性の詳細を等しくするという原則を仮定している。この
こどもは、そのフレーズの「頭」と呼ばれる。大部分の
フレーズは頭を一つだけ持つ。それ故、例えば、動詞句
は、その動詞の時制を受け継ぐ。何故なら、動詞は動詞
句の「頭」であるからである。これまで使用してきた表
記法の資源を使用しても、文法全体に適用できるこの原
則を指定する簡単な方法はない。しかし、もし関連する
特性がDAGの一本の枝上にすべて発見することができ
ると仮定するならば、規則ごとに非常に簡単にこの原理
の効果を述べることができる。そこで、我々は通常のV
P規則を以下のように書き表すことができる。
"Some properties that appear on one node must be the same as properties that appear on another node. Recent research shows the classification of parents and the morphemes associated with those properties. This also assumes the principle of equalizing the details of certain classes of properties that appear above, which is called the "head" of the phrase. Most phrases have only one head. Thus, for example, a verb phrase inherits the tense of that verb. Because the verb is the "head" of the verb phrase. Using the notational resources used so far, there is no easy way to specify this principle that applies to the entire grammar. However, if we assume that the relevant properties can all be found on one branch of the DAG, we can very easily state the effect of this principle on a rule-by-rule basis. So we have the usual V
The P rule can be written as:

【0019】VP−−>V NP PP <Vの頭>=<VPの頭> この場合、Vの「頭」の特性値と、親であるVP上の
「頭」の特性値は同じものでなければならない。」 ガズダで議論されている規則は、本明細書に開示する構
文の各分類に容易に適用することができる。ガズダの規
則を使用して各ノードに割り当てられた言語情報は、記
憶方法の技術により、ツリーの中を伝達することができ
る。
VP-> V NP PP <head of V> = <head of VP> In this case, the characteristic value of the head of V and the characteristic value of the head of the parent VP are the same. There must be. The rules discussed in Gazda can be readily applied to each class of syntax disclosed herein. The linguistic information assigned to each node using Gazda's rules can be propagated through the tree by storage techniques.

【0020】ここで、上の三つの段落の内容を要約する
と、加重平均は、サブノード・スコアを決定する一つの
方法であり、各サブノード・スコアは、最適化問題に適
用した周知の記憶方法技術を使用してグラフ中を伝達す
ることができ、ガズダの著書に述べられている方法は、
各ノードに記憶されている言語情報を分析するのに使用
することができ、この言語情報は、記憶方法技術を使用
して文法構造解析チャート内を伝達することができると
いうことになる。
Here, to summarize the contents of the above three paragraphs, the weighted average is one method of determining the subnode score, and each subnode score is a well-known storage technique applied to the optimization problem. Can be conveyed through the graph, and the method described in Gazda's book is
The linguistic information stored at each node can be used to analyze, which means that the linguistic information can be conveyed in the grammar structure analysis chart using storage method techniques.

【0021】自動自然言語翻訳システムでは、最初の自
動翻訳終了後に、自動的に再翻訳を行うことができる。
すなわち、システムが自動的に入力テキスト情報の可能
で最も適切な翻訳を提供し、ユーザに出力(好適には、
入力英語テキストの日本語の翻訳)を提供した後、ユー
ザは表示されている翻訳を手直しするために、または自
動的に別の翻訳を入手するためにシステムと対話するこ
とができる。
In the automatic natural language translation system, re-translation can be automatically performed after the first automatic translation is completed.
That is, the system automatically provides the possible and most appropriate translation of the input text information and outputs it to the user (preferably,
After providing the Japanese translation of the input English text), the user can interact with the system to modify the displayed translation or automatically obtain another translation.

【0022】自動自然言語翻訳システムは、一つの文を
サブストリングに分解する言語モデルを使用する。サブ
ストリングは、その文の一部として指定された順序で出
現する一つまたは複数の語句である。例えば、サブスト
リング「The man is happy」は、「The」、「The ma
n」、「man is happy.」、「is」および「The man is
happy」それ白身を含んでいるが、「is man」、「man m
an」、「The is」は含んでいない。
An automatic natural language translation system uses a language model that breaks one sentence into substrings. A substring is one or more phrases that occur in the order specified as part of the sentence. For example, the substring "The man is happy" is "The", "The ma
n "," man is happy. "," is "and" The man is
happy "it contains white but" is man "," man m
"an" and "The is" are not included.

【0023】異なる言語モデルは、種々の方法で、また
種々の詳細レベルでサブストリングを定義する。例え
ば、「They wou1d 1ike an arrow.」という文において
は、「an arrow」は通常、名詞句(NP)に分類され
る。別のモデルでは、「an arrow」を構文上の特性(例
えば、単数の名詞句)および文意の上の特性(武器)で
分類する。この句の意味が曖昧である場合には、それを
分類する複数の方法がある、例えば、「an arrow」は、
矢の形をした記号を意味することもできる。言語モデル
が、曖昧さを解決する方法を提供するとき、通常、より
小さな単位をより大きな単位に結合することによって曖
昧さを解決する。より大きい単位を評価する場合、これ
らのモデルはより大きい単位に含まれている情報だけを
考慮の対象とする。
Different language models define substrings in different ways and at different levels of detail. For example, in the sentence "They wou1d 1ike an arrow.", "An arrow" is usually classified as a noun phrase (NP). Another model classifies “an arrow” by syntactic properties (eg, singular noun phrases) and literary properties (weapons). If the meaning of this phrase is ambiguous, there are several ways to classify it, for example, "an arrow"
It can also mean an arrow-shaped symbol. When language models provide a way to resolve ambiguities, they typically resolve ambiguities by combining smaller units into larger units. When evaluating larger units, these models consider only the information contained in the larger units.

【0024】このシステムの具体的な例示として、「an
arrow」(記号または武器)の意味上の特性が、「They
wou1d 1ike an arrow.」という文の「1ike an arrow」
という動詞句を評価する際に使用される。一方、「an a
rrow」という句の構文が「Heshot it with an arrow.」
という文中にあった場合には、「an arrow」の意味上の
特性は、「shot it with an arrow」という動詞句を評
価する際には使用されない。
As a specific example of this system, "an
The semantic characteristic of the arrow (symbol or weapon) is changed to "They
"1ike an arrow" in the sentence wou1d 1ike an arrow.
Used to evaluate the verb phrase On the other hand, "an a
The syntax of the phrase "rrow" is "Heshot it with an arrow."
The semantic property of "an arrow" is not used in evaluating the verb phrase "shot it with an arrow".

【0025】特定の言語モデル(解釈したサブストリン
グ)を一つの方法で解釈した文の任意のサブストリング
に対して、エキスポートされた属性が存在する、エキス
ポートされた属性は、解釈したサブストリングと、もっ
と大きいサブストリングを形成する他の単位との組み合
わせを評価するために使用したすべての属性である。エ
キスポートはエキスポートされた特性と一緒に解釈し
た、解釈済みのサブストリングである。解釈済みのサブ
ストリングに含まれているが、エキスポートされていな
い属性は、サブ構造体と呼ばれる。
For any substring of a sentence in which a particular language model (interpreted substring) is interpreted in one way, there is an exported attribute. The exported attribute is the interpreted substring. And all the attributes used to evaluate the combination with other units that form a larger substring. Export is an interpreted substring, interpreted along with the exported properties. Attributes included in the interpreted substring but not exported are called substructures.

【0026】システムのパーサーは、文法データベース
を含む。パーサーは、文法規則を使用して文のすべての
可能な解釈を見い出す。文法データベースは、X=A1
A2...Anの形の、一連の文脈自由句構造規則から
なる。Xは、A1,A2,...,Anからなっている
か、形成されていて、レベルの高いノード(サブノー
ド)A1からよりレベルの低いノード(サブノード)A
nと呼ばれる。
The parser of the system includes a grammar database. The parser uses grammar rules to find all possible interpretations of the sentence. The grammar database is X = A1
A2. . . It consists of a series of context-free phrase structure rules in the form An. X represents A1, A2,. . . , An, or a higher-level node (sub-node) A1 to a lower-level node (sub-node) A
Called n.

【0027】システムのグラフ作成装置は、一つの文に
関して可能な多くの解釈を図形で表す。グラフの各ノー
ドは、あるサブストリングのエキスポートに対応する。
システムの具体例として、一つのエキスポートは一つの
ノードで表される。グラフは、一つのエキスポートに関
連するノードから出ている円弧を含み、円弧は、文法規
則の適用に基づくエキスポートのサブ構造体を表す。グ
ラフは少なくとも二つのタイプの円弧、すなわち、エキ
スポートのサブ構造体を表す。グラフは少なくとも二つ
のタイプの円弧、すなわち、(1)同じサブストリング
の一つの異なるエキスポートを指している単一の円弧、
(2)二つのエキスポートを指している一組のポインタ
を含む二つの円弧、すなわち、連結されたときは、その
サブストリングは、もとのエキスポートのサブストリン
グを形成する。(2)の定式は、チョムスキーの正規形
文法を仮定していることに留意されたい。修正した請求
項35は、タイプ(2)を言い替えることによって、チ
ョムスキーの正規形文法ではなく、N個のエキスポート
を指しているN重ポインタを持つ円弧を反映する文法に
適用される。
The graphing system of the system graphically represents many possible interpretations of a sentence. Each node in the graph corresponds to the export of a substring.
As a specific example of the system, one export is represented by one node. The graph includes an arc emanating from a node associated with one export, where the arc represents a substructure of the export based on the application of a grammar rule. The graph represents at least two types of arcs, the export substructure. The graph shows at least two types of arcs: (1) a single arc pointing to one different export of the same substring;
(2) Two arcs containing a set of pointers to the two exports, ie, when concatenated, their substrings form a substring of the original export. Note that the formula in (2) assumes Chomsky's normal form grammar. The amended claim 35 applies, by paraphrasing type (2), to a grammar reflecting an arc with an N-fold pointer pointing to N exports, rather than a Chomsky normal form grammar.

【0028】グラフは、一つの出発エキスポート点Sを
含み、そこから一連の円弧を迫ることによりグラフのす
べての部分に行き着くことができる。出発エキスポート
は、文全体に対応する。
The graph includes a single starting export point S from which all parts of the graph can be reached by following a series of arcs. The departure export corresponds to the entire sentence.

【0029】同じエキスポートを複数のエキスポートか
ら形成できる場合に限り、一つのノードから複数の円弧
がスタートする。(二つの円弧からなる円弧内の一組の
ポインタは、この意味では複数の円弧とは考えない。)
そのエキスポートが複数のエキスポートの一つの要素で
ある場合に限って、複数の円弧が一つのノードを指すこ
とになる。円弧が出ていないノードは、サブストリング
に割り当てられた辞書の見出し語に対応する。
A plurality of arcs start from one node only if the same export can be formed from a plurality of exports. (A set of pointers within an arc of two arcs is not considered multiple arcs in this sense.)
Multiple arcs will point to one node only if the export is one element of multiple exports. Nodes with no arc correspond to dictionary entries assigned to the substring.

【0030】複数の言語エキスパートが、エキスポート
の集合に数字のスコアを割り当てる。この言語エキスパ
ートは、グラフの各ノードに上記スコアを適用する。シ
ステムの具体例として、スコア行列(行列の各要素は、
特定のエキスパートのスコアに掛け算を行うための重み
である)は、任意の文に対する浮動小数点数の固定の長
さ「N」である。
A plurality of language experts assign a numerical score to the set of exports. The language expert applies the score to each node of the graph. As a specific example of the system, a score matrix (each element of the matrix is
The weight for multiplying the score of a particular expert) is the fixed length "N" of the floating point number for any sentence.

【0031】上記スコアは、グラフ作成エンジンおよび
/またはパーサーに組み込まれるスコアリング・モジュ
ールにより評価される。スコアは、より高いエキスポー
トを形成しているすべてのエキスポートに対して計算さ
れる。より高いエキスポートに対するスコアは、よりレ
ベルの高いエキスポートを形成しているエキスポートと
構造調整エキスパートによって割り当てられたスコアの
組み合わせに適用される任意のエキスパートのスコアの
合計として計算される。
The scores are evaluated by a scoring module incorporated into the graphing engine and / or parser. A score is calculated for all exports that make up the higher export. The score for the higher export is calculated as the sum of the scores of any expert applied to the combination of the export forming the higher level export and the score assigned by the structural adjustment expert.

【0032】ノードに到着し、スコアを調べる順序は、
標準の深さ第一グラフ移動アルゴリズムである。このア
ルゴリズムでは、スコア付けされたノードにはマークが
付けられ、再びスコアを付けられることはない。スコア
が付けられるプロセス中、スコアリング・モジュール
は、もっと高い単位の任意のノードの評価を行う前に、
辞書の見出し語ノードを評価する。辞書の各見出し語は
一つのスコアをもつ。
The order of arriving at the node and examining the score is:
This is the standard depth first graph movement algorithm. In this algorithm, the scored nodes are marked and will not be scored again. During the scoring process, the scoring module will evaluate the higher unit of any node before evaluating it.
Evaluate the headword node of the dictionary. Each entry in the dictionary has one score.

【0033】一つのエキスポートを行うのに複数の方法
がある場合には、複数のスコアになる。すなわち、エキ
スポートを行うのにk通りの方法がある場合には、可能
なk個のスコアになる。複数のスコアは以下のように処
理される。
When there are a plurality of methods for performing one export, a plurality of scores are obtained. That is, if there are k ways to export, there are k possible scores. The multiple scores are processed as follows.

【0034】(1)単一の要素からなる規則では、もっ
と低いエキスポートのk個の各スコアは、単一の要素か
らなる規則に適用されるエキスパートの数値に加算さ
れ、その結果得られたk個のスコアのベクトルは親のエ
キスポートに関連している。
(1) In a single element rule, each of the k lower export scores is added to the expert value applied to the single element rule, resulting in A vector of k scores is associated with the parent export.

【0035】(2)二つの要素からなる規則では、左の
こどもがgスコアを持ち、右のこどもがhスコアを持つ
ものと見なされる。その後gスコアにhスコアを掛けた
数値が、左のこどもの各スコアに右のこどもの各スコア
を加算し、さらに、二つの要素からなる規則に適用され
るエキスパートの数値を加算することによって計算され
る。gスコアにhスコアを掛けた数値がNを越えた場合
には、最も高いNのスコアだけが親のノードと一緒に保
持される。
(2) In the rule composed of two elements, it is considered that the left child has a g score and the right child has an h score. After that, the number obtained by multiplying the g score by the h score is calculated by adding each score of the right child to each score of the left child, and further adding the expert value applied to the rule of two elements. Is done. If the g score multiplied by the h score exceeds N, only the highest N score is kept with the parent node.

【0036】(3)一つのエキスポートが複数の方法で
作ることができる場合には、たかだかN個のスコアがそ
のノードのスコア・リストに加算され、最も高いスコア
だけが保持される。
(3) If an export can be made in multiple ways, at most N scores are added to the score list for that node, and only the highest score is kept.

【0037】スコア計算が完了すると、上記方法は、各
エキスポートがそのノードと、エキスポートに表示され
ていないすべてのサブ構造体の属性を含む、エキスポー
トを行うためのg個の最も可能性の高い方法(言語モデ
ルに関する)を表すg個のスコア(1からNまでの範囲
内のg)の集合と関連づけていることを確認する。ルー
ト・ノードSのような特別な場合では、このスコア計算
方法は文全体を形成するg個の最も可能性の高い方法を
与える。
Once the score calculation has been completed, the method described above is such that each export includes its nodes and the attributes of all substructures not represented in the export, the g most likely to export. Associated with a set of g scores (g in the range from 1 to N) that represent the methods (with respect to the language model) that are high. In special cases, such as the root node S, this scoring method gives the g most likely ways to form the whole sentence.

【0038】上記のスコア・リストの各スコアは、関連
ポインタを持つ。ポインタ、より低いエキスポートのス
コア・リストのどのスコアが、もっと高いレベルのスコ
アを作るために組み合されたのかを示す情報を提供す
る。各ポインタを追跡することにより、その文のg個の
最も可能性の高い解釈を、曖味でない解析ツリーとして
抽出することができる。
Each score in the above score list has an associated pointer. The pointer, which provides information indicating which scores in the lower export score list have been combined to create a higher level score. By tracking each pointer, the g most likely interpretations of the sentence can be extracted as an unambiguous parse tree.

【0039】図1〜図9を参照しながら、自動自然言語
翻訳システムをさらに詳細に説明する。その後で、図1
0、図11および図12を参照しながら、本発明の種々
の改良点について説明する。
The automatic natural language translation system will be described in more detail with reference to FIGS. After that, FIG.
Various improvements of the present invention will be described with reference to FIGS.

【0040】図1および図2を参照すると、本発明の自
動自然言語翻訳システム10は、入力インターフェース
12、翻訳エンジン16、記憶装置18、ユーザ入力装
置22、ディスプレイ20および出カインターフェース
14を含む。入力インターフェースは、英語などのソー
ス言語で書かれた一連のテキストを受信することができ
るようになっている。入力インターフェースとしては、
キーボード、音声インターフェースまたはモデムまたは
直列入力のようなデジタル電子インターフェースを含む
ことができる。翻訳エンジンは、記憶装置のデータを使
って、ソース言語の翻訳を行う。翻訳エンジンは、全体
をハード配線の論理回路で作ることもできるし、一つま
たは複数の処理ユニットや関連する記憶命令を含むこと
もできる。翻訳エンジンは、以下に述べる要素やその部
分を含むことができる、すなわち、プリパーサー24、
パーサー26、グラフ作成装置28、文法構造解析/翻
訳評価子30、文法構造解析抽出装置32、構造変換装
置34、および別の文法構造システム37を含むユーザ
・インターフェース42である。構造変換装置は、文法
規則制御による構造変換装置36、辞書制御による構造
変換装置38および生成規則制御による構造変換装置4
0を含むことができる。記憶装置18は、一つまたは複
数のディスク(例えば、ハードディスク、フロッピー
(登録商標)ディスクおよび/または光学的ディスク)
および/またはメモリ記憶装置(例えば、RAM)など
を含むことができる。これら記憶装置は、次に述べる要
素の全部または一部を記憶することができる。すなわ
ち、基本辞書44、技術用語辞書46、ユーザが作成し
た辞書、文法規則48、生成規則50、意味特性ツリー
52、構造特性ツリー54およびグラフ56である。記
憶装置18は、ソース自然言語で書かれた入力テキスト
情報、目的言語で書かれた出力テキスト情報、および一
つまたは複数の辞書、領域キーワードと文法規則を含む
翻訳を行うために使用したり役立つすべての種類の情報
を記憶するのに使用される。ユーザ入力インターフェー
ス22は、キーボード、マウス、タッチスクリーン、ラ
イトペンまたは他のユーザ入力装置を含み、システムの
オペレータが使用できる。ディスプレイとしては、コン
ピュータ・ディスプレイ、プリンタまたは他のタイプの
ディスプレイを使用することもできるし、オペレータに
情報を知らせるための他の装置であることもできる。出
カインターフェース14は、ソース・テキストの最終翻
訳を、日本語などの目的言語でやりとりする。上記イン
ターフェースは、プリンタ、ディスプレイ、音声インタ
ーフェース、モデムまたは直列ラインのような電子イン
ターフェースを含むこともできるし、最終ユーザにテキ
ストを送るための他の装置を含むこともできる。
Referring to FIGS. 1 and 2, the automatic natural language translation system 10 of the present invention includes an input interface 12, a translation engine 16, a storage device 18, a user input device 22, a display 20, and an output interface 14. The input interface is adapted to receive a series of texts written in a source language such as English. As the input interface,
It may include a keyboard, a voice interface or a digital electronic interface such as a modem or serial input. The translation engine translates the source language using the data in the storage device. The translation engine can be made entirely of hard-wired logic, or can include one or more processing units and associated storage instructions. The translation engine may include the following elements and parts thereof: pre-parser 24,
A user interface 42 including a parser 26, a graph creation device 28, a grammatical structure analysis / translation evaluator 30, a grammatical structure analysis extraction device 32, a structure conversion device 34, and another grammatical structure system 37. The structure conversion device includes a structure conversion device 36 by grammar rule control, a structure conversion device 38 by dictionary control, and a structure conversion device 4 by generation rule control.
0 may be included. The storage device 18 may include one or more disks (eg, hard disks, floppy disks, and / or optical disks).
And / or may include memory storage (eg, RAM) and the like. These storage devices can store all or some of the elements described below. That is, a basic dictionary 44, a technical term dictionary 46, a dictionary created by the user, a grammar rule 48, a generation rule 50, a semantic characteristic tree 52, a structural characteristic tree 54, and a graph 56. Storage 18 is used or useful for performing input text information written in source natural language, output text information written in target language, and translations including one or more dictionaries, domain keywords and grammar rules. Used to store all kinds of information. User input interface 22 includes a keyboard, mouse, touch screen, light pen, or other user input device and is available to the operator of the system. The display may be a computer display, a printer or other type of display, or may be another device for providing information to an operator. The output interface 14 exchanges the final translation of the source text in a target language such as Japanese. The interface may include an electronic interface such as a printer, display, audio interface, modem or serial line, or may include other devices for sending text to an end user.

【0041】本発明の翻訳システムの具体例の動作とし
て、図1、図2および図3に示すように、プリパーサー
24は、まずソース・テキスト23に対して予備的な解
析作業(ステップ102)を行う。この作業には、ソー
ス・テキストの文末認定の曖昧性の解析が含まれ、辞書
の見出し語25を含む構造解析チャートを作成する。そ
の後、パーサー26は、構文の可能性27が記載されて
いる構造解析チャートを入手するために、プリパーサー
が作成した(ステップ104)上記チャートの構造解析
を行う。グラフ作成装置28は、構造解析ステップで得
られた構造解析チャートに基づいて、可能な解釈29の
グラフを作成する(ステップ106)。一連のエキスパ
ート43にアクセスする評価子30は、記憶された解釈
のグラフを評価し(ステップ108)、グラフ31にエ
キスパートの重みを追加する。グラフ・スコアラ33
は、ノードのスコアをつけ、N個の(例えば、20個
の)最も高いスコア35をそれぞれに関連づける。文法
構造抽出装置32は、この好適な解釈に構造解析ツリー
構造39を割り当てる(ステップ110)。その後、変
換テーブル58にアクセスする構造変換装置34は、目
的言語になった翻訳41を入手するために、上記ツリー
上で構造変換処理(ステップ112)を行う。ユーザ
は、他の翻訳を入手するために他の構造解析システム3
7とやりとりすることができる。
As an operation of a specific example of the translation system of the present invention, as shown in FIGS. 1, 2 and 3, the preparser 24 first performs a preliminary analysis operation (step 102) on the source text 23. Do. This includes analyzing the ambiguity of the end-of-sentence recognition of the source text and creating a structural analysis chart that includes the dictionary headword 25. Thereafter, the parser 26 performs a structural analysis of the chart created by the preparser (step 104) in order to obtain a structural analysis chart in which the syntax possibility 27 is described. The graph creating device 28 creates a graph of the possible interpretation 29 based on the structural analysis chart obtained in the structural analysis step (step 106). The evaluator 30 accessing the series of experts 43 evaluates the stored interpretation graph (step 108) and adds expert weights to the graph 31. Graph scorer 33
Scores the nodes and associates the N (eg, 20) highest scores 35 with each. The grammatical structure extractor 32 assigns the structure analysis tree structure 39 to this preferred interpretation (step 110). Thereafter, the structure conversion device 34 accessing the conversion table 58 performs a structure conversion process (step 112) on the tree in order to obtain the translation 41 that has become the target language. The user may use another structural analysis system 3 to obtain another translation.
7 can be interacted with.

【0042】図4を参照すると、本発明のシステムは、
入力単語列を個々の句読点および語を形成する文字グル
ープを含むトークン(ステップ114)に分割すること
によって、予備構造解析を行う。スペースの出現は、こ
のレベルでの文字の解釈に影響を与える。例えば、「x
−y」の「−」はダッシュであるが、「x-y」の「-」
はハイフンである。
Referring to FIG. 4, the system of the present invention comprises:
Preliminary structural analysis is performed by dividing the input word string into tokens (step 114) containing the individual punctuation marks and the character groups forming the word. The appearance of spaces affects the interpretation of characters at this level. For example, "x
"-" In "-y" is a dash, but "-" in "xy"
Is a hyphen.

【0043】その後、プリパーサーは上記のトークンを
語句に組み合わせる(ステップ116)。このレベル
で、プリパーサーは、特殊な構造(例えば、インターネ
ット・アドレス、電話番号および社会保険番号のよう
な)を一つの単位として認識する。プリパーサーは、ま
たグループを区切るために辞書参照を行う。例えば、
「re-enact」が辞書に「reenact」として載っている場合
は、一語となるが、載っていない場合は、別々の三つの語
となる。
Thereafter, the preparser combines the tokens into words (step 116). At this level, the preparser recognizes special structures (eg, Internet addresses, telephone numbers and social security numbers) as a unit. The preparser also performs a dictionary lookup to separate groups. For example,
If "re-enact" is listed as "reenact" in the dictionary, it will be one word, otherwise it will be three separate words.

【0044】次の予備構造解析段階では、文が何処で終
わるかの文末認定が行われる(ステップ118)。この
処理中、プリパーサーは、各文の可能な文末箇所(すな
わち、ソ−ステキストの各単語の後)を認定するための
一連のステップを行う際に、基本辞書、技術用語辞書お
よび搭載されているユーザ作成の辞書にアクセスする。
プリパーサーは、特定の順序が指定された場合には、こ
のステップを行う必要はなく、これらステップは一連の
順序を持つ規則として実行することもできるし、ハード
ウエアに組み込んでコード化することもできる。
In the next preliminary structure analysis stage, sentence end recognition is performed to determine where the sentence ends (step 118). During this process, the preparser performs a series of steps to identify the possible end-of-sentence of each sentence (i.e., after each word of the source text), and provides a basic dictionary, a technical term dictionary, and an on-board dictionary. Access user-created dictionaries.
The preparser does not need to perform this step if a particular order is specified, and the steps can be performed as a series of ordered rules, or can be hard-coded into the hardware. .

【0045】図5を参照すると、プリパーサーは、ダッ
シュ記号の連続「-----」のような解析できない記号の
シーケンスがあるとき、ひとつひとつは翻訳せず、全体
として一つの「文」として解釈し記録する(ステップ1
20)。プリパーサーは、文の末尾として、二つのキャ
リッジ・リターンを要求する(ステップ122)。次の
語句の最初の文字が小文字である場合には、プリパーサ
ーは一つの文の終わりと見なさない(ステップ12
4)。文がニューラインで始まりしかも短い場合(例え
ば、タイトル)には、プリパーサーは、それを一つの文
と見なす。
Referring to FIG. 5, when there is a sequence of symbols that cannot be analyzed, such as a series of dashes "-----", the preparser does not translate each one, but interprets them as one "sentence" as a whole. And record (Step 1
20). The preparser requests two carriage returns at the end of the sentence (step 122). If the first letter of the next phrase is lowercase, the preparser does not consider it the end of a sentence (step 12).
4). If a sentence begins with a new line and is short (eg, a title), the preparser considers it a single sentence.

【0046】プリパーサーは、閉じ括弧および閉じ引用
符を含んでいるような場合を除いて、終止符(.)、疑
問符(?)、または感嘆符(!)を文の終わりと見なす
(ステップ128)。「.”」や「?”」等で終わって
いる文の場合には、プリパーサーは、引用符の前の句読
点のほかに、引用符の後に仮想の句読点を加えて使用す
る。「?”」に対して仮想で追加する句読点に対する方
法を、以下の例に示す。
The preparser considers a terminator (.), Question mark (?), Or exclamation point (!) As the end of a sentence, unless it includes closing parentheses and closing quotes (step 128). In the case of a sentence ending with ".""Or"?"", The preparser uses virtual punctuation after the quotation marks in addition to punctuation before the quotation marks. The following example shows a method for punctuation that is virtually added to “?”.

【0047】The question was "What do you want?". Did he ask the question "What do you want?"? Are you concerned about "the other peop1e"? 英語の場合、上記各文は「?"」で終わっている可能性が
高い。プリパーサーが追加した仮想の句読点があるとい
うことは、引用符の前に疑問符のような何かが存在する
のか、または全然何もないかを示している。引用符の後
ろには、終止符または疑問符のような何かが存在してい
る。この文の残りの文法的構造によって、このあとの処
理段階で最も適切な選択を行うことができる。
Did he asks the question "What do you want?"? Are you concerned about "the other peop1e"? In English, the above sentences are replaced with "?" It is likely to be over. The presence of the virtual punctuation added by the preparser indicates that there is something like a question mark before the quotation mark, or nothing at all. Behind the quotes are something like a terminator or question mark. The remaining grammatical structure of this sentence allows the most appropriate choice to be made at a later processing stage.

【0048】プリパーサーは、また終止符の解析で、さ
らにいくつかの方法を使用する(ステップ130、13
2、134、136および138)。辞書に含まれる短
縮形には、文頭には決して使用できないというマークが
付いているものや、文末には決して使用できないという
マークが付いているものがある(ステップ130)。こ
れらの規則は常に尊重される。例えば、「Ltd.」は文頭
には使用されないし、「Mr.」は文の終わりには使用さ
れない。プリパーサーは、また次の語句が「the」、「i
n」のような頻出する単語でないかぎり(ステップ13
2)、一字の大文字に終止符があるとき、文が終わりで
あるとは考えない。終止符の前の単語が、いずれかの辞
書に載っている場合には、終止符のところで文は終わる
(ステップ134)。終止符の前の語句が辞書に載って
おらず、その語句がその内部に終止符を持っていて(例
えば、I.B.M.)、次の語句が小文字としては辞書に
載っていないか、または次の語句そのものが大文字であ
る場合には、文はその終止符のところで終わっていない
と見なす(ステップ136)。それ以外の場合には、終
止符は文の終わりを示す(ステップ138)。
The preparser also uses a number of additional methods in analyzing the terminator (steps 130, 13).
2, 134, 136 and 138). Some abbreviations included in the dictionary are marked at the beginning of the sentence as being never used, and some are marked at the end of the sentence as being never used (step 130). These rules are always respected. For example, "Ltd." is not used at the beginning of a sentence, and "Mr." is not used at the end of a sentence. The preparser also states that the following words are "the", "i
n "unless it is a frequent word (step 13
2) If a capital letter has a terminator, it is not considered to be the end of the sentence. If the word before the stop is in one of the dictionaries, the sentence ends at the stop (step 134). The word before the terminator is not listed in the dictionary, the term has an internal terminator (eg, IBM), and the next term is not listed in the dictionary as lowercase, or If the next phrase itself is uppercase, the sentence is considered not to end at the end (step 136). Otherwise, the terminator indicates the end of the sentence (step 138).

【0049】再び図2および図3を参照すると、文の切
れ目がプリパーサーにより指定されると、パーサーはそ
の文の語句を構文分類に入れ、その文の可能な構文の解
釈25を計算するために、それらの語句に文法データベ
ースの文法規則を適用する(ステップ104)。文法規
則48を、その言語の文法的な制限を表すコンピュータ
処理ができる一連の規則として実行することができる、
英語の場合、このような規則は何百とあり、これら規則
は何百という構文分類に適用され得る。この作業の計算
に要する余分な時間を減らすために、一つの語句の異な
る可能な意味は無視して処理される。
Referring again to FIGS. 2 and 3, when a sentence break is specified by the preparser, the parser places the phrase of the sentence into a syntactic classification and calculates a possible syntactic interpretation 25 of the sentence. Apply the grammar rules of the grammar database to those phrases (step 104). Grammar rules 48 may be implemented as a set of computer-capable rules that represent the grammatical restrictions of the language,
In English, there are hundreds of such rules, and these rules can apply to hundreds of syntactic classes. To reduce the extra time required to calculate this task, the different possible meanings of a phrase are ignored.

【0050】次のステップ(ステップ106)におい
て、グラフ作成装置は、語句の異なる意味を取り込み、
その文のすべての意味解釈を表す方向を持ったリング状
でないグラフを作成するために、辞書を使用しパーサー
の結果を拡張する。このグラフは、後で説明する一連の
意味伝達の手順の助けを借りて作成される。これらの手
順は、一連の作成された文法規則に基づいて行われ、あ
る場合には、意味情報を求めて意味特性ツリーにアクセ
スする。意味特性ツリーは、意味分類を含むツリー構造
である。このツリーは、おおざっぱに抽象物から具体物
へと組織されており、ツリーの中でどのくらい離れてい
るのか、ツリーのなかでのそれぞれのレベルは何かの両
方から、二つの用語が意味の上でどのように関連してい
るかを決定することができる。例えば、「cat」と「do
g」は、「cat」と「pudding」より関連性が高い、した
がって、「cat」と「dog」の二つは、「animal」のツリ
ーの中での距離は短く、「animal」、「cat」はツリー
の異なるレベルに記憶されている例である。何故なら
「animal」は「cat」に比べてより抽象的な言葉である
からである。
In the next step (step 106), the graph creation device fetches different meanings of the words and phrases,
Extend the parser results using a dictionary to create a non-ringed graph with a direction that represents all the semantic interpretations of the sentence. This graph is created with the help of a sequence of semantic communication described later. These procedures are based on a series of created grammar rules, and in some cases, access semantic property trees for semantic information. The semantic property tree is a tree structure including the semantic classification. This tree is roughly organized from abstract to concrete, with two terms meaningful both from how far apart in the tree and what each level in the tree is. Can determine how they are related. For example, "cat" and "do
"g" is more relevant than "cat" and "pudding", so two of "cat" and "dog" have a shorter distance in the tree of "animal", and "animal", "cat" Are examples stored at different levels of the tree. Because "animal" is a more abstract word than "cat".

【0051】図9を参照すると、この図のグラフは、ノ
ード80を含み、そのサブノード82、84,86は種
々のタイプの関連を示す方法でポインタ88,89,9
0,91でリンクしている。グラフの第一の関連のタイ
プは、句を表すノードが、それを構成している語句のノ
ードやサブフレーズのノードを指すポインタを持ってい
るものである。例えば、「the bank」を表すノード84
は、ポインタ92,93により、それを構成している語
句「the」94および「bank」95にリンクしている。
グラフの第二の関連のタイプは、句の解釈が、より低い
レベルのものから、同じより高いレベルの成分を作るも
う一つの方法を指すポインタを持っている場合である。
例えば、句「by the bank」を表すノード80は、それ
ぞれを構成する各語句にリンクしているポインタ88と
89、および90と91を含む二つのソース解釈位置8
1,83を持つことができる。この例の場合、異なる個
々の構成語は、それぞれが句「the bank」に対して異な
る意味を表す異なるサブノード84,86を含む。グラ
フの構造は、解析作業の結果により規定され、ソース文
の構文により制限を受ける。このグラフのノードは、意
味伝達のプロセス中に記入される意味情報に対する記憶
位置と関連づけられる。
Referring to FIG. 9, the graph of this figure includes a node 80 whose subnodes 82, 84, 86 are pointers 88, 89, 9 in a manner that indicates various types of associations.
It is linked at 0,91. The first type of association in the graph is that the node representing the phrase has pointers to the nodes of the words and subphrases that make up the phrase. For example, node 84 representing "the bank"
Are linked by pointers 92 and 93 to the words "the" 94 and "bank" 95 that make up them.
The second type of association in the graph is when the phrase interpretation has a pointer to another way to make the same higher level component from the lower level.
For example, a node 80 representing the phrase "by the bank" has two source interpretation locations 8 containing pointers 88 and 89 and 90 and 91 linking to each of the constituent words.
1,83. In this example, the different individual constituent words include different subnodes 84, 86, each representing a different meaning for the phrase "the bank". The structure of the graph is defined by the results of the parsing work and is restricted by the syntax of the source sentence. The nodes of this graph are associated with storage locations for the semantic information entered during the semantic transmission process.

【0052】システムの意味を伝達する部分は、それら
を含むより小さな成分からより大きな成分へと意味情報
を伝達する働きをする。意味情報は、初めの段階の解析
作業で使用される構文分類の四つのクラスに適用され
る。四つのクラスは、SEMNP(名詞型の目的語や前
置詞句を含む)、SEMVP(通常主語を取る、目的語
のような動詞句)、SEMADJ(形容詞)、およびV
ERB(多くの場合目的語を取る辞書の動詞型の動詞)
である。その他の構文分類はある規則では無視される。
文法規則の設定者は、規則に特定のマークを付けること
によって、表面上に出ない行動を上書きすることができ
る。これらの特別命令は最初にくる。
The parts that convey the semantics of the system serve to convey semantic information from the smaller components that contain them to the larger components. The semantic information applies to the four classes of syntactic classification used in the initial parsing tasks. The four classes are SEMNP (including noun type objects and prepositional phrases), SEMVP (usually subject, object-like verb phrases), SEMADJ (adjective), and VEM
ERB (verb-type verb in a dictionary that often takes an object)
It is. Other syntax classifications are ignored by certain rules.
The grammar rule setter can override actions that do not appear on the surface by marking the rule with a specific mark. These special orders come first.

【0053】システム内を意味特性が伝達する方法は二
つの面を持つ。第一の面は、文法規則の名詞型および動
詞型の構成部分を検査することによって、名詞型の目的
語に、動詞型の構成要素のどの選択的な制限スロットを
適用するかを知ることができる規則の集合である。例え
ば、「I persuaded him to go.」という文の動詞句に対
する規則は、おおまかにいうと、VP=VT11+NP
+VP(ここで、VPは動詞句、VT11は他動詞の分
類、NPは名詞句)である。例示としてのデフォルト規
則は、動詞が目的語を取る場合には、動詞の右側にある
最初のNPに、選択制限を適用しなければならないとい
うものである。別の規則では、その主語に対するVPの
制限は、VPの左側の最初のNPに適用しなければなら
ないと定めている。これらの規則を合わせると、「pers
uade him」および「him go」の両方の意味がよく通るよ
うに評価するようにしている。すでに説明したように、
これらの規則は英語の複雑な規則を反映していて、その
ためにその数は非常に限定されている。
The method of transmitting semantic characteristics in the system has two aspects. The first aspect is to examine the noun-type and verb-type components of the grammar rules to find out which optional restriction slots of the verb-type component apply to the noun-type object. A set of rules that can be done. For example, the rule for the verb phrase of the sentence “I persuaded him to go.” Is roughly VP = VT11 + NP
+ VP (where VP is a verb phrase, VT11 is a transitive classification, and NP is a noun phrase). An exemplary default rule is that if the verb takes an object, the first NP to the right of the verb must apply a selection restriction. Another rule states that VP restrictions on the subject must apply to the first NP to the left of the VP. When these rules are put together, "pers
The evaluation is made so that the meanings of both "uade him" and "him go" are well understood. As already explained,
These rules reflect the complex rules of English, so their numbers are very limited.

【0054】図6を参照すると、意味伝達作業は選択制
限をSEMVPから命令文にコピーする作業を含む(ス
テップ140)。SEMNPが位置の表現として使用さ
れている場合には、良い位置を指定する意味定数に対し
てその妥当性が評価される(ステップ142)。ある規
則が二つのSEMNPの結合(構文上の特徴を論理積す
ることによって検出された)を含んでいる場合には、グ
ラフ作成装置は、意味特性を諭理積して、意味上の距離
エキスパートに適用する(ステップ144)。
Referring to FIG. 6, the semantic transfer operation includes copying the selection restrictions from the SEMVP to the statement (step 140). If SEMNP is used as a position expression, the validity of the semantic constant specifying a good position is evaluated (step 142). If a rule contains the union of two SEMNPs (detected by ANDing syntactic features), the graph creator will logically intersect the semantic properties and generate a semantic distance expert. (Step 144).

【0055】意味特性の伝達に対して指定された規則を
検査している中で、グラフ作成装置が、もっと高いレベ
ル(例えば、それがもっと多くの語句を含むSEMNP
の一部となる)へ伝達するSEMNPの「頭」の位置を
見つけた場合には、グラフ作成装置は、意味特性をも伝
達する(ステップ146)。しかし、「頭」が、区分用
の語句(例えば、「Portion」、「Part」)である場合
には、「頭」はSEMNPから左または右に伝達する。
SEMVPおよびSEMADJも、区分用の位置を持っ
ていない(ステップ148)ことを除いて、同じ方法で
伝達される。形容詞はこの意味ではSEMVPの一部で
ある。
In examining the rules specified for the transmission of semantic properties, the grapher may use a higher level (eg, a SEMNP that contains more words).
If it finds the position of the "head" of the SEMNP to be transmitted to the (part of), the graph creation device also transmits the semantic property (step 146). However, if the “head” is a word for division (eg, “Portion”, “Part”), the “head” is transmitted from the SEMNP to the left or right.
SEMVP and SEMADJ are communicated in the same manner, except that they do not have a location for partitioning (step 148). Adjectives are part of SEMVP in this sense.

【0056】SEMVPがVERBを含む規則から作ら
れた場合は、グラフ作成装置は、VPが受動態である場
合を除いて、VERBの主語制限を上の方向に伝達させ
る。受動態の場合、VERBの最初の目的語制限が伝達
される(ステップ150)。SEMVPを含む規則の場
合には、グラフ作成装置は、SEMVPの選択制限をS
EMVPから左に移動するときに遭遇するNPに適用し
ようとする(ステップ152)。SEMADJを含む規
則の場合には、グラフ作成装置は、SEMADJの選択
制限を、最初にSEMADJから右に移動するときに遭
遇する任意のSEMNPに適用しようとし、それがうま
くいかない場合には、左の方向に移動しようとする(ス
テップ154)。
If the SEMVP was created from a rule that includes VERB, the graphing device propagates the subject constraint of VERB upwards, except when the VP is passive. If passive, the first object restriction of VERB is communicated (step 150). In the case of a rule including SEMVP, the graph creation device sets the selection restriction of SEMVP to S.
Attempt to apply to NPs encountered when moving left from EMVP (step 152). In the case of rules involving SEMADJ, the grapher will attempt to apply the SEMADJ selection restriction to any SEMNP encountered when first moving right from SEMADJ, and if that fails, the left direction (Step 154).

【0057】VERBの任意の残りの未使用の目的語選
択制限(受動態であるために上の方向にそれまで伝達し
ていない)に対して、グラフ作成装置は、VERBの右
側で遭遇するSEMNPに、上記の制限を順番に適用す
る(ステップ156)。これらすべての規則で、動詞選
択制限は、それが何かに適用されるとすぐに使い尽くし
てしまう。これまでのすべての規則の場合、SEMNP
は、それらSEMNPに何かが適用された場合には、使
い果たされない。この規則からスタートすると、SEM
NPは使い尽くされる。最終的に、ある規則がSEMV
Pを作った場合に、グラフ作成装置は、それまで使用さ
れていないSEMVPまたはSEMADJが含まれてい
るかどうかを決定し、含まれている場合には、それを上
の方向に向かって伝達する(ステップ158)。
For any remaining unused object selection restrictions in VERB (which have not been communicated upwards since they are passive), the grapher will generate the SEMNP encountered on the right side of VERB. The above restrictions are applied in order (step 156). In all these rules, the verb selection restriction runs out as soon as it applies to something. For all previous rules, SEMNP
Are not exhausted if anything is applied to those SEMNPs. Starting from this rule, SEM
NP is exhausted. Finally, one rule is SEMV
When P is created, the graphing device determines whether a previously unused SEMVP or SEMADJ is included, and if so, communicates it upwards ( Step 158).

【0058】システムは、また言語の特性マッチングを
行う。言語特性は語句および他の構成要素の特性であ
る。構文の特性マッチングはパーサーが使用し、意味特
性マッチングは、グラフ作成装置が使用する。しかし、
同一の方式が両者に対して使用される。例えば、「the
y」は複数という構文特性を持ち、一方「he」は単数と
いう構文特性を持つ。特性マッチングは、語句の特徴が
それらが適用される語句の特徴がある条件を満たした場
合にだけ適用されるように、文法規則にマーク付けを行
う。例えば、下記のような規則があるとする。
The system also performs language feature matching. Linguistic characteristics are the characteristics of words and other components. Syntax matching is used by the parser, and semantic matching is used by the graph creator. But,
The same scheme is used for both. For example, "the
"y" has a syntactic property of plural, while "he" has a syntactic property of singular. Feature matching marks grammar rules so that the features of the phrases that are applied only if the features of the phrases to which they apply meet certain conditions. For example, assume that there are the following rules.

【0059】S=NP{@}+VP{@} ここで、記号@はNPおよびVPの数の特性が一致しな
ければならないことを意味する。したがって、この規則
は「they are」や「he is」は正しいとするが、「they
is」や「he are」は認めない。
S = NP {+ VP} where the symbol {} means that the characteristics of the numbers of NP and VP must match. Thus, this rule states that "they are" and "he is" are correct, but that "they are"
"is" and "he are" are not allowed.

【0060】特性マッチ制限は、「局所的」と「広範
囲」とに分けられる。広範囲の動作は、実際に文が処理
されるときにではなく、文法が作成されるときに計算さ
れる。そして、実行しなければならない広範囲の動作の
シーケンスは、命令バイトとしてコード化される。
The characteristic match restriction is divided into “local” and “wide area”. Extensive actions are calculated when the grammar is created, not when the sentence is actually processed. The sequence of the wide range of operations that must be performed is then coded as instruction bytes.

【0061】「広範囲」特性動作の計算は、n個の要素
からなる規則(すなわち、その右側に二つ以上の要素を
持っている)でスタートしなければならない。その後、
システムは、特性の集合が正しい形で規則間を伝達して
終わるように種々の二つの要素からなる規則にコードを
割り当てる。n個の要素からなる規則を二つの要素から
なる規則に分割することによって、解析作業は非常に単
純化される。しかしシステムは、二つの要素からなる規
則にまたがって特性の集合を追跡しているので、システ
ムは「広範囲」処理のパワーを保持する。
The calculation of "wide range" characteristic operation must start with a rule of n elements (ie, having more than one element to its right). afterwards,
The system assigns codes to the various two-part rules such that the set of properties ends up propagating between the rules in the correct way. By dividing a rule consisting of n elements into a rule consisting of two elements, the analysis task is greatly simplified. However, the system retains the power of "widespread" processing because the system tracks a set of properties across a two-element rule.

【0062】本発明のシステムでは、辞書は構成してい
る偶々の語句としての取り扱いも行うが、複数の語句で
構成する「熟語」も含んでいる。これら二つの形は、最
終的には最も適切な翻訳を行うために相互に競い合うこ
とになる。例えば、辞書では「b1ack sheep」の意味
は、「持て余し者」として登録されている。しかし、あ
る場合には、「b1ack sheep」という語句は、「黒い
羊」を意味することもある。これらの形は両方とも保持
されているので、この熟語としてではない翻訳も、正し
い翻訳として選択される。
In the system of the present invention, the dictionary treats the words as even constituting phrases, but also includes "idioms" composed of a plurality of phrases. These two forms will eventually compete with each other for the most appropriate translation. For example, in the dictionary, the meaning of “b1ack sheep” is registered as “surplus”. However, in some cases, the phrase "b1ack sheep" may mean "black sheep." Since both of these forms are retained, this non-idiom translation is also selected as the correct translation.

【0063】この熟語は、また別の分類にも属する。例
えば、システムは次の三つのタイプの分類を使用するこ
とができる。
This idiom also belongs to another classification. For example, the system can use three types of classification:

【0064】オールマイティ:United States of Americ
a 優先:long ago 普通:b1ack sheep オールマイティ熟語は、そのシーケンスを構成している
どの語句の可能な解釈よりも優先する。優先熟語は、そ
のシーケンスを構成している語句が同じ一般的な使われ
方をしているときは、いずれの可能な解釈よりも優先す
る。普通熟語は、同じレベルで他の見出し語と競合す
る。
Almighty: United States of Americ
a Priority: long ago Normal: b1ack sheep Almighty idioms take precedence over possible interpretations of any of the words that make up the sequence. Preferred idioms take precedence over any possible interpretation when the words making up the sequence have the same general usage. Ordinary idioms compete with other headwords at the same level.

【0065】その結果得られるグラフは、エキスパート
(ステップ108、図3)によって評価され、上記エキ
スパートはグラフの解釈の正確さの可能性を表すスコア
を供給する。本発明のシステムは、文全体のみではな
く、文の任意の長さのすべての部分に適用される採点方
法を含む。グラフを使用するに当たっての重要な要素
は、それが非常に多くの文に使用されていたとしても、
サブツリーがたった一回だけ完全に採点され、分析され
るということである。例えば、「Near the bank there
is a bank.」という句においては、「Near the bank」
という句は、少なくとも二とおりの意味を持つが、この
句の最も適切な解釈はどれかという判断は一回しか行わ
れない。「there is a bank」という句も、同様に二と
おりの解釈をすることができるが、これら二とおりの解
釈のどれが最も適切であるかという判断は一回だけしか
行われない。したがって、この文は異なる四つの意味に
解釈できるが、サブ句のスコア付けは一回しか行われな
い。このグラフのもう一つの特徴は、各ノードが、文の
その部分の長さに関して容易にアクセスできる情報を持
っていることである。この特徴により、英文を再度分析
しなくても、その英文の任意のサブストリングのN個の
最も適切な解釈を行うことができる。
The resulting graph is evaluated by an expert (step 108, FIG. 3), which provides a score that indicates the likely accuracy of the interpretation of the graph. The system of the present invention includes a scoring method that applies to all parts of any length of the sentence, not just the entire sentence. An important factor in using a graph is that, even if it is used in so many statements,
That is, the subtree is completely scored and analyzed only once. For example, "Near the bank there
In the phrase "is a bank.", "Near the bank"
The phrase has at least two meanings, but only one decision is made to determine the most appropriate interpretation of the phrase. The phrase "there is a bank" can similarly be interpreted in two different ways, but the decision of which of these two interpretations is most appropriate is made only once. Thus, this sentence can be interpreted in four different meanings, but the subphrase is scored only once. Another feature of this graph is that each node has easily accessible information about the length of that part of the sentence. This feature allows the N most appropriate interpretations of any substring of the English sentence without having to re-analyze the English sentence.

【0066】一回の実行においては、その文の最も適切
なN個の分析が、その度ごとに得られるが(Nは20程
度のある数)、グラフを使用することにより、システム
は、もっと小さな構成部分についてのユーザの選択の結
果を取り入れることができ、ユーザの選択を尊重したN
個の最も適切な分析を行う。これらすべての分析は、文
の解析を再度行わず、または任意のサブストリングの採
点を再度行わないで行われるので、迅速に行うことがで
きる。
In a single run, the most appropriate N analyzes of the sentence are obtained each time (N is some number of the order of 20), but by using a graph, the system allows more N that can incorporate the results of user selection for small components and respect user selection
Perform the most appropriate analysis. All of these analyzes can be done quickly, without re-analyzing the sentence or scoring any substrings again.

【0067】図8を参照すると、エキスパート評価子3
0の動作は、各翻訳を特徴づけ、種々のエキスパートに
より処理される、種々の要因に基づいて行われる。確率
規則エキスパート170は、最初のソース言語解析ツリ
ーを入手するのに使用される文法規則の平均相対頻度を
評価する。選択制限エキスパート178は、得られた翻
訳の意味上の一致の度合を評価する。辞書見出し語確率
エキスパート172は、最初のソース言語解析ツリーを
入手するめに使用された文のいくつかの語句の特定の
「品詞」の平均相対頻度を評価する。統計エキスパート
は、ある翻訳のために選択した特定のパラフレーズの平
均相対頻度を評価する。
Referring to FIG. 8, expert evaluator 3
A zero action is based on various factors that characterize each translation and are processed by various experts. The probability rule expert 170 evaluates the average relative frequency of the grammar rules used to obtain the initial source language parse tree. Selection restriction expert 178 evaluates the degree of semantic matching of the resulting translation. The dictionary headword probability expert 172 evaluates the average relative frequency of a particular “part of speech” of some phrases in the sentence used to obtain the initial source language parse tree. The statistical expert evaluates the average relative frequency of a particular paraphrase selected for a translation.

【0068】システムは、個別の英語の単語、句、およ
び単語グループに対する英語の「品詞」(POS)を自
動的に決定する。システムは、文を翻訳するとき、品詞
を自動的に決定し通常は正しい決定を行う。しかし、と
きには、翻訳する文それ白身が曖昧であることもある。
異なる品詞として解釈することができる語句が含まれて
いるときは、複数の異なるしかもどれも「正しい」解釈
が得られることになる。システムのオペレータは、シス
テムが自動的に決定する品詞を無視し、代わりに単語や
語句または単語グループに対して手動で任意の品詞を設
定することもできる。例えば、「John saw a boy with
a telescope.」という英文で、システムのオペレータ
は、「a boy with a telescope」を名詞句と見なすと、
その文を「その少年は望遠鏡を持っていた」という意味
に解釈し、「ジョンはその少年を見るために望遠鏡を使
用した」という意味には解釈しないことになる。オペレ
ータは、複数の可能な品詞設定を行ったり、より制限の
ゆるやかな品詞設定を手動で行うことにより、システム
が決定する品詞規則を上書きした場合、翻訳結果が悪化
したり、少なくとも改善されないという状況が起こるこ
とがあります。名詞句は名詞よりも制限がゆるやかであ
り、グループはもっとも制限が緩やかな品詞設定であ
る。下の表に種々の可能な品詞設定を示す。
The system automatically determines the English "part of speech" (POS) for individual English words, phrases, and word groups. When the system translates a sentence, it automatically determines the part of speech and usually makes the right decision. However, sometimes the sentence to be translated and its whiteness are ambiguous.
When words or phrases that can be interpreted as different parts of speech are included, a plurality of different and all "correct" interpretations are obtained. The system operator may ignore the part of speech that is automatically determined by the system and instead manually set any part of speech for a word, phrase or group of words. For example, "John saw a boy with
a telescope. ", the system operator considers" a boy with a telescope "to be a noun phrase,
The sentence would be interpreted to mean "the boy had a telescope" and not "John used a telescope to see the boy." If the operator overwrites the part-of-speech rules determined by the system by making several possible part-of-speech settings or manually setting a more restrictive part-of-speech setting, the translation result will be worse or at least not improved May happen. Noun phrases are less restrictive than nouns, and groups are the least restrictive parts of speech. The table below shows the various possible parts of speech settings.

【0069】品詞(POS) 名詞 名詞句 動詞(他動詞または自動詞) 動詞句 形容詞 形容詞句 副詞 副詞句 前置詞 前置詞句 接続詞 グループ 英語 「形容詞句」や「副詞句」の品詞設定は、ある英文が、
システムが特定の前置詞句をどのように解釈するかによ
って意味が異なるような場合に有効である。例えば、
「We need a book on the fourth of July」という文
は、「on the fourth of July」が形容詞としての意味
を持つと解釈した場合には、「我々は米国の7月4日の
独文記念日に関する本がほしい。」という意味になる
が、「on the fourth of July」を副詞句と解釈した場
合には、「7月4日に、我々は本がほしい。」という意
味になる。システムが自動的に「on the fourth of Jul
y」に正しくない品詞を割り当てたとオペレータが考え
た場合には、オペレータは、「Weneed a book on the f
ourth of July」という文の「on the fourth of July」
に別の品詞を手動で設定することができる。オペレータ
が、システムに特定の単語、句または単語グループを英
語から日本語に翻訳させたくないときは、このような単
語、句または単語グループに『英語』という品詞を設定
することができる。オペレータは、設定がシステムによ
り自動的に行われた場合でも、オペレータにより手動で
行われた場合でも、一つまたは複数の品詞設定を除去す
ることができる。
Part-of-speech (POS) Noun Noun phrase Verb (transitive or intransitive) Verb phrase Adjective Adjective phrase Adverb Adverb phrase Preposition Preposition phrase Conjunction Group English
This is useful when the meaning depends on how the system interprets a particular prepositional phrase. For example,
The sentence "We need a book on the fourth of July" is interpreted as saying "on the fourth of July" has the meaning of an adjective. However, if "on the fourth of July" is interpreted as an adverb phrase, it means "On July 4, we want a book." The system automatically displays "on the fourth of Jul
If the operator thinks that he has assigned the wrong part of speech to "y", the operator will see "Weneed a book on the f
`` on the fourth of July '' in the sentence `` ourth of July ''
Can be manually set to another part of speech. If the operator does not want the system to translate a particular word, phrase or group of words from English to Japanese, such words, phrases or groups of words can be set to the part of speech "English". The operator can remove one or more part-of-speech settings, whether the settings are made automatically by the system or manually by the operator.

【0070】システムは、ユーザごとに複数のレベルで
訳語の使われ方の統計情報を追跡する。例えば、システ
ムは、語句の表面形式のレベル(「leaving」が他動詞
として、または自動詞として使用された頻度)で統計値
を保持し、また意味レベル(「あとに残る」という意味
か、または「〜から出発した」という意味か)でも保持
し、後者のタイプは「leave」、「leaves」、「lef
t」、「leaving」の異なる変化形ごとに出現回数が積み
上げられる。システムは、また最後のいくつかの文で使
用された使用統計値とユーザの任意の時間での使用統計
値とは区別して保持することができる。さらに、システ
ムは、ユーザが語句の特定の意味を使用するように介入
して指示したケースと、システムがユーザの介入を受け
ずに語句の特定の意味を使用したケースとを区別するこ
とができる。
The system tracks translation usage statistics at multiple levels for each user. For example, the system maintains statistics at the level of the surface form of a phrase (the frequency at which "leaving" was used as a transitive or intransitive verb), and at a semantic level (meaning "remaining after" or "~ Or "leave", "leaf", "lef"
The number of appearances is accumulated for each of the different variations of "t" and "leaving". The system may also keep a distinction between the usage statistics used in the last few sentences and the usage statistics at any time for the user. Further, the system can distinguish between cases where the user has intervened and instructed to use a particular meaning of a phrase, and cases where the system has used a particular meaning of the phrase without user intervention. .

【0071】構造調整エキスパート182は、ある文の
構成部分の長さに関連する特徴で、英語や多くの他のヨ
ーロッパ言語に共通する特徴に基づいている。いくつか
の(全てではないが)構造で、これらの言語では、軽い
(短い)要素の左側に重い(長い)要素がくるような文
は歓迎されない。例えば、 Mary hit Bill with a broom。(左が軽く、右が重い)
(適合) Mary hit with a broom Bill。(左が重く、右が軽い)
(不適合) Mary hit with a broom a dog that tried to bite he
r.(左が重く、右がもっと重い)(適合) ある文の二つの解析があるとき、一方がそのようなシー
ケンスを避けようとする構造を含む「左が重く、右が軽
い」シーケンスを含み、他の解析がそうでない場合に
は、前者はその文の意図する解釈を表していないと見な
される。このエキスパートは、意図する解析と意図しな
い解析を区別するための有効な方法である。
The structure adjustment expert 182 is a feature related to the length of a certain sentence component, and is based on features common to English and many other European languages. With some (but not all) constructs, these languages do not welcome sentences in which light (short) elements have heavy (long) elements to the left of them. For example, Mary hit Bill with a broom. (Left is light, right is heavy)
(Applicable) Mary hit with a broom Bill. (Heavy left and light right)
(Non-conforming) Mary hit with a broom a dog that tried to bite he
r. (heavier on the left and heavier on the right) (conform) When there are two parsings of a sentence, one constructs a "heavier left and lighter right" sequence that includes structures that try to avoid such sequences If so, and the other parsing is not, the former is deemed not to represent the intended interpretation of the sentence. This expert is an effective way to distinguish between intended and unintended analyses.

【0072】「A of B and C」というパターンの同格構
造においては、意図する解釈が「Aof {B and C}」であ
るのか、または「A {of B} and C」であるのかを判断す
るのが難しい場合がある。同格構造エキスパート180
は、どの同格モードが意味のより近い二つの要素を結合
することになるかを決定するために、BC間の意味上の距
離、およびAC間の意味上の距離を測定する。このエキス
パートは処理中に意味特性ツリーにアクセスする。この
エキスパートは、ある文の意図する解析と意図しない解
析を区別するための効果的な方法でもある。
In the equivalence structure of the pattern “A of B and C”, it is determined whether the intended interpretation is “A of {B and C}” or “A {of B} and C”. Can be difficult. Equivalent structure expert 180
Measures the semantic distance between BC and the semantic distance between ACs to determine which equivalence mode will combine the two elements that are closer together. This expert accesses the semantic property tree during processing. The expert is also an effective way to distinguish between intended and unintended analysis of a sentence.

【0073】英語の多くの語は、普通名詞としての解釈
と固有名詞としての解釈とに潜在的な曖昧さを含んでい
る。大文字エキスパート176は、大文字表記が意味を
持っているかどうかを決定するために、文中での大文字
の位置を使用する。例えば、下記の文は、 Brown is my first choice. My first choice is Brown. 第一の文は本来的に意味が曖昧であるが、第二の文は、
「Brown」は色の名称ではなく、人名である可能性がは
るかに高い点で異なる。このエキスパートは、大文字で
始まる語句が文頭にあるのか、または文頭でない場所に
あるのか(上の例)、大文字で表示されている語句が辞
書に含まれるのかどうか、小文字で始まる語句が辞書に
登録されているのかどうか、などの要因を考慮に入れ
る。このエキスパートは、文中の大文字で書かれた語句
を正しく解釈するのに有効な方法である。
Many English words contain potential ambiguity in their interpretation as common nouns and as proper nouns. The capitalization expert 176 uses the position of the capitalization in the sentence to determine whether capitalization is significant. For example, the following statement is Brown is my first choice. My first choice is Brown. The first sentence is inherently ambiguous, while the second is
"Brown" differs in that it is much more likely to be a person's name than a color name. The expert will determine whether words starting with capital letters are at the beginning of a sentence or not at the beginning of words (as in the example above), whether words in capital letters are included in the dictionary, and words that start with lowercase letters are registered in the dictionary. Factors are taken into account. This expert is an effective way to correctly interpret capitalized words in sentences.

【0074】文中に最初が大文字の語句の連続を含んで
いるとき、その連続は固有名詞または普通名詞として処
理される。本発明のシステムは、大文字表記シーケンス
手順を使用しており、前者の解釈を優先する。上記シー
ケンスが、それ自身通常の文法規則により解析できない
ときは、そのシーケンスは解析していないひとまとまり
の名詞句として翻訳しないで処理される。この手順は、
出現レベルの低い普通名詞の解釈を完全には無視しない
で、複合の固有名詞を処理する非常に有効な手段である
ことが証明されている。
When a sentence initially includes a sequence of uppercase words, the sequence is treated as a proper noun or a common noun. The system of the present invention uses a capitalized sequence procedure, giving preference to the former interpretation. If the sequence itself cannot be parsed according to normal grammatical rules, the sequence is processed without translation as a set of unparsed noun phrases. This step is
It has proven to be a very effective means of handling compound proper nouns without completely ignoring the interpretation of low-common-level common nouns.

【0075】図7を参照すると、本発明の機械翻訳シス
テムは、簡単な文法規則に基づく構造変換方法の効率を
持っているが、テンプレート間構造変換方法の能力にも
近い文法規則制御構造変換機構162を使用する。この
方法は、平らでない複合構造を指定することができる文
法規則160を使用する。他の翻訳システムで使用され
ている規則のフォーマットを以下に示す。
Referring to FIG. 7, the machine translation system of the present invention has the efficiency of a structure conversion method based on a simple grammar rule, but has a grammar rule control structure conversion mechanism that is close to the capability of the inter-template structure conversion method. 162 is used. This method uses grammar rules 160 that can specify an uneven composite structure. The format of the rules used in other translation systems is shown below.

【0076】 本発明のシステムは以下の文法規則のフォーマットを使
用する。
[0076] The system of the present invention uses the following grammar rule format.

【0077】[0077]

【数1】 この構文で、「#」が前に付いている記号は、文の構造
解析の目的では見えない記号であるが、いったん解析が
入手できればサブ構造を構築するのに使用される仮想の
記号である。
(Equation 1) In this syntax, a symbol preceded by a "#" is a symbol that is not visible for the purpose of sentence structure analysis, but is a virtual symbol used to construct substructures once the analysis is available. .

【0078】このタイプの文法が与えられたとき、サブ
構造のこども関係にあるノードの任意のシーケンスの間
で、複数の構造変換を指定することができるようにな
る。これにより、文法規則に基く構造変換機構はテンプ
レート間構造変換機構のいくつかの能力を持つ機構に変
換される。本発明のシステムは、上記の二番目のタイプ
の文法規則に基づいているけれども、一番目の形式で対
応する文法規則を自動的に作成する。したがって、文を
解析するのに、第一の形式の文法規則を使用し、文法解
析構造を形成するために第二の形式の文法規則を使用す
ることができる。
Given this type of grammar, it becomes possible to specify a plurality of structural transformations between any sequence of nodes in a child relationship of a substructure. As a result, the structure conversion mechanism based on the grammar rules is converted into a mechanism having some capabilities of the inter-template structure conversion mechanism. Although the system of the present invention is based on the second type of grammar rule above, it automatically creates a corresponding grammar rule in the first form. Thus, a first form of grammar rule can be used to parse a sentence, and a second form of grammar rule can be used to form a grammar parsing structure.

【0079】構造変換は、また文法規則制御構造変換作
業による操作をうけた後で、解析ツリー上で動作するた
めに、辞書161にアクセスする辞書制御構造変換作業
166を含む。その後、生成規則構造変換作業が、目的
言語テキスト41を供給するために、結果として得られ
た解析ツリーに、生成規則を適用する。
The structure conversion includes a dictionary control structure conversion operation 166 for accessing the dictionary 161 to operate on the parse tree after being operated by the grammar rule control structure conversion operation. Thereafter, a production rule structure conversion operation applies the production rules to the resulting parse tree to provide the target language text 41.

【0080】再び、図1および図2を参照すると、シス
テムが上記プロセスにより、最も望ましいとした翻訳を
作った後、その翻訳がディスプレイ20を通してユーザ
に提供される。その後、ユーザは、その翻訳を採用する
か、ユーザ入力装置22を通して別の解析システム37
を操作することにより手直しができる。手直し作業中、
ユーザは、正確に翻訳された翻訳結果の部分はそのまま
に保持しながら、その他の部分の再翻訳を要求すること
ができる。この作業は、迅速に行える。というのは、シ
ステムはエキスパートの重み31を含むグラフを保持し
ているからである。
Referring again to FIGS. 1 and 2, after the system has produced the most desirable translation according to the above process, the translation is provided to the user through display 20. The user can then either adopt the translation or use another analysis system 37 via the user input device 22.
The operation can be performed by operating. During rework,
The user can request retranslation of the other parts while keeping the part of the translation result that has been correctly translated. This can be done quickly. Because the system keeps a graph containing the expert weights 31.

【0081】今まで図1〜図9を参照しながら、自動自
然言語翻訳システムをある程度詳細に説明してきた。以
後は、本発明の種々の改良点について、図10、図11
および図12を参照しながら説明する。
The automatic natural language translation system has been described in some detail with reference to FIGS. Hereinafter, various improvements of the present invention will be described with reference to FIGS.
This will be described with reference to FIG.

【0082】図10を参照すると、自動自然言語翻訳シ
ステムの翻訳エンジン16は、ソース・テキスト23を
受信し、それを目的自然言語テキスト41に自動的に翻
訳する。この翻訳は、本発明の他の観点による「自動領
域識別子」機能により影響をうける。この機能により、
翻訳エンジン16は、翻訳を行う際に、領域キーワード
200の一つまたは複数のリスト(図示したのはN個)
および辞書202にアクセスする。辞書202は、見出
し語が使用される領域により、異なる翻訳を受けとる見
出し語を含む。辞書202の各見出し語は、ソース自然
言語で書かれた一つまたは複数の語句であってもよい。
一般的に言って、別々の各領域は領域キーワードのリス
トを持ち、図10にはN個の領域を示されている。キー
ワードのリストの各見出し語としては、ソース自然言語
で書かれた一つまたは複数の語句も使用することができ
る。キーワード200のリストは、図に示すように、辞
書202から分離することができるし、または矢印20
4で示すように、上記辞書に内蔵させることもできる。
Referring to FIG. 10, the translation engine 16 of the automatic natural language translation system receives the source text 23 and automatically translates it into the target natural language text 41. This translation is affected by the "automatic region identifier" function according to another aspect of the invention. With this feature,
When performing translation, the translation engine 16 lists one or a plurality of area keywords 200 (N is shown in the figure).
And access to the dictionary 202. The dictionary 202 includes headwords that receive different translations depending on the area where the headword is used. Each headword in dictionary 202 may be one or more phrases written in the source natural language.
Generally speaking, each separate area has a list of area keywords, and FIG. 10 shows N areas. Each entry in the list of keywords may also be one or more words written in the source natural language. The list of keywords 200 can be separated from the dictionary 202 as shown, or
As shown in FIG. 4, it can be built in the dictionary.

【0083】一つの領域は、ある分野の用法または特定
の人々に属する用語や用法のパターンのセットを含むこ
とができる。例えば、一つの領域としては、ビジネス通
信、マーケティング文書、コンピュータ関連文書、物理
学などの技術分野の文書を含むことができる。
An area can include a set of terms and usage patterns that belong to a certain field of usage or a particular population. For example, one area may include documents in technical fields such as business communications, marketing documents, computer related documents, and physics.

【0084】辞書202は、ある領域関連で使用された
とき、その語句が他の領域で使用されたとき、どの特定
の領域でも使用されなかったときにはそれぞれ異なる目
的自然言語(例えば、日本語)の訳語を持つ語句が含ま
れる。キーワード200は、各領域に関連して、ソース
自然言語23で書かれた特定の文(または、入力文書)
が可能な領域の一つに属するかどうかを判断するのに使
われる領域指定の語句または用語である。領域キーワー
ド200の各リストにおいては、各キーワードは、それ
に関連し、特定の領域に対するキーワードとしての強さ
を示す数値を持つ。例えば、「コンピュータ」領域リス
トには、100%の値を持つ「open-architecture compu
ter」というキーワードを含んでいて、この100%とい
う値はこのキーワードを含む文が、必ず「コンピュー
タ」領域の文であることを意味し、「コンピュータ」領
域内のキーワード「computer」は、25%の値を持って
おり、この25%という値は、このキーワードを持っ文
が「コンピュータ」領域内に存在する可能性がもっと低
いことを意味する。
The dictionary 202 has different target natural languages (for example, Japanese) when it is used in relation to a certain area, when the phrase is used in another area, and when it is not used in any specific area. Includes phrases with translations. The keyword 200 is associated with a specific sentence (or input document) written in the source natural language 23 in relation to each area.
Is a region-specific word or term used to determine if a region belongs to one of the possible regions. In each list of the area keywords 200, each keyword has a numerical value indicating the strength as a keyword for a specific area in association with the keyword. For example, the “computer” area list contains “open-architecture compu” with a value of 100%.
ter ”, the value of 100% means that the sentence containing this keyword is always a sentence in the“ computer ”area, and the keyword“ computer ”in the“ computer ”area is 25% The value of 25% means that a sentence having this keyword is less likely to exist in the “computer” area.

【0085】「自動領域識別子」機能で、翻訳エンジン
16は、好適には、その文または文書が特定の領域に属
することを確定できるように、文、文書または文書の一
部のキーワードの強さの値の合計(あるいは、十分なキ
ーワードが存在するかどうか)を決定する。キーワード
がある領域に存在する場合に、辞書202においては領
域指定語句としてリストされ、しかも翻訳しようとする
文や文書に含まれる語句の確率が引き上げられて、文ま
たは文書の翻訳が行われる。翻訳エンジン16が行う上
記の決定は、ソース自然言語とキーワードだけに基づ
く。
With the "automatic region identifier" function, the translation engine 16 preferably provides the strength of a keyword in a sentence, document, or part of a document so that the sentence or document can be determined to belong to a particular area. Determine the sum of the values of (or whether there are enough keywords). When a keyword exists in a certain area, the word or phrase is listed in the dictionary 202 as an area designation word, and the probability of the word or phrase included in the sentence or document to be translated is increased, and the sentence or document is translated. The above decisions made by translation engine 16 are based solely on the source natural language and keywords.

【0086】翻訳エンジン16は、例えば、下記の二つ
のどちらかの方法で、入力テキスト情報23の少なくと
もその一部が属する少なくとも一つの領域を決定する。
第一の方法は、入力テキスト情報23の各文に一度に一
つずつアドレスし、各領域のキーワードの出現数をカウ
ントすることである。所定の個数と同等以上の数のキー
ワードを持つ各領域に対しては、翻訳エンジン16は、
その領域に特有の訳語を使用して、目的自然言語41に
翻訳される文に含まれるいくつかの語句の確率を高くす
る。所定の上記の数は、入力テキスト情報23のすべて
の文に同一の値を固定することもできるし、また文ごと
に、文の長さ(語句の数)によって変化させることもで
きる。上記の所定の数は、システム10によって設定す
ることもできるし、システム10のユーザが設定するこ
ともできる。第二の方法は、最初のN単語というよう
に、入力テキスト情報23の所定の単語数に出現する各
領域のキーワード出現数をカウントする方法である。所
定の数以上の個数のキーワードを持つ各領域に対して
は、翻訳エンジン16は、その領域に特有の訳語を使用
して、目的自然言語41に翻訳される文に含まれるいく
つかの語句の確率を高くする。同様に、所定の数は、シ
ステム10によって設定することもできるし、システム
10のユーザが設定することもできる。
The translation engine 16 determines at least one area to which at least a part of the input text information 23 belongs by one of the following two methods, for example.
The first method is to address each sentence of the input text information 23 one at a time and count the number of occurrences of the keyword in each area. For each region having keywords equal to or greater than the predetermined number, the translation engine 16
By using a translation specific to the region, the probability of some phrases included in the sentence translated into the target natural language 41 is increased. The above-mentioned predetermined number can be fixed to the same value for all the sentences of the input text information 23, or can be changed for each sentence according to the length of the sentence (the number of phrases). The predetermined number can be set by the system 10 or can be set by a user of the system 10. The second method is a method of counting the number of appearances of keywords in each area appearing in a predetermined number of words of the input text information 23, such as the first N words. For each region having more than a predetermined number of keywords, the translation engine 16 uses a translation word specific to that region to convert several words contained in the sentence translated into the target natural language 41. Increase the probability. Similarly, the predetermined number can be set by the system 10 or by a user of the system 10.

【0087】本発明の好適な具体例では、翻訳エンジン
16は、前段落で説明したように、キーワードをカウン
トすることによってではなく、各領域に対する強さの値
の合計を得るために、それぞれのキーワードに関連する
強さの値を使用することによって、入力テキスト情報2
3の少なくともその一部が属する少なくとも一つの領域
を決定する。この好適な具体例の場合には、翻訳エンジ
ン16は、そうでない場合には、前の段落で説明したよ
うに動作する。すなわち、第一の好適な方法では、入力
テキスト情報23の各文は、一度に一つずつアドレスさ
れ、キーワードの強さの合計が所定の数値以上の大きさ
をもつ各領域に対しては、翻訳エンジン16は、その領
域に特有の訳語を使用して、目的自然言語41に翻訳さ
れる文に含まれるいくつかの語句の確率を高くする。所
定の上記の数は、入力テキスト情報23のすべての文に
同一の値を固定することもできるし、また文ごとに、文
の長さ(語句の数)によって変化させることもできる。
上記所定の数は、システム10によって設定することも
できるし、システム10のユーザが指定することもでき
る。第二の好適な方法においては、各領域のキーワード
の強さの値の合計は、ソーステキスト23の最初のN単
語のように、入力テキスト情報23の所定の単語数に出
現するキーワードによって決定される。キーワードの強
さの合計が所定の値以上の値を持つ各領域に対しては、
翻訳エンジン16は、その領域に特有の訳語を使用し
て、目的自然言語41に翻訳される文に含まれるいくつ
かの語句の確率を高くする。すでに説明したように、所
定の数は、システム10によって設定することもできる
し、システム10のユーザが設定することもできる。
In the preferred embodiment of the present invention, translation engine 16 does not count each keyword, as described in the previous paragraph, but rather, to obtain the sum of the strength values for each region. Input text information 2 by using the strength value associated with the keyword
3. Determine at least one region to which at least a part of 3 belongs. In this preferred embodiment, translation engine 16 otherwise operates as described in the previous paragraph. That is, in the first preferred method, each sentence of the input text information 23 is addressed one at a time, and for each region where the sum of the keyword strengths is greater than or equal to a predetermined number, The translation engine 16 increases the probability of some phrases included in a sentence translated into the target natural language 41 by using a translation specific to the region. The above-mentioned predetermined number can be fixed to the same value for all the sentences of the input text information 23, or can be changed for each sentence according to the length of the sentence (the number of phrases).
The predetermined number can be set by the system 10 or can be specified by a user of the system 10. In the second preferred method, the sum of the strength values of the keywords in each area is determined by the keywords that appear in a predetermined number of words in the input text information 23, such as the first N words of the source text 23. You. For each region where the sum of keyword strengths is greater than or equal to a given value,
The translation engine 16 increases the probability of some phrases included in a sentence translated into the target natural language 41 by using a translation specific to the region. As described above, the predetermined number can be set by the system 10 or can be set by a user of the system 10.

【0088】「自動領域識別子」機能の一例として、
「markup language」および「help desk」が「コンピュ
ータ」領域の領域キーワードのリストに含まれていて、
「endusers」は、「end users」が「コンピュータ」領
域で使用されるかどうかによって二つの別の訳語を持つ
とする。次の文がソーステキスト23の一部であると
き、 Markup language should be easily used by end users
without being supported by help desk. 「自動領域識別子」機能に従って、翻訳エンジン16
は、「コンピュータ」領域の二つのキーワード、「mark
up language」および「help desk」を発見する。「コン
ピュータ」領域のこれら二つのキーワードを見つけるこ
とにより、翻訳エンジン16は、しきい値を基に、その
文が「コンピュータ」領域の文であることを決定するこ
とができる。その文が「コンピュータ」領域に属するも
のであると決定されると、翻訳エンジン16は、そのあ
と、ユーザに提供される目的自然言語テキスト41に翻
訳する「コンピュータ」領域に特有の「end users」の
訳語が使われる機会を増大するように、「コンピュー
タ」領域に特有の「end users」の訳語の確率を引き上
げる。文ごとにこの機能が働くモードのほかに、「自動
領域識別子」機能は、入力テキスト全体に働くこともで
きる。例えば、翻訳エンジン16は、特定の領域に対応
するキーワードの定められた個数が、ソーステキスト2
3の最初のn単語(nはある整数)内に存在すれば、ソ
ーステキスト23全体が「コンピュータ」領域に属する
かどうかを決定することができる。この全テキストモー
ドの場合には、辞書202に含まれる領域特有の訳語を
持つソーステキスト23のすべての語句は、その領域特
有の訳語を使用して翻訳される。
As an example of the “automatic area identifier” function,
"Markup language" and "help desk" are included in the list of domain keywords in the "computer" domain,
Assume that "endusers" has two different translations depending on whether "end users" is used in the "computer" domain. When the following sentence is part of source text 23, Markup language should be easily used by end users
without being supported by help desk. Translation engine 16
Are two keywords in the "computer" area, "mark
"up language" and "help desk". By finding these two keywords in the "computer" area, the translation engine 16 can determine, based on the threshold, that the sentence is a sentence in the "computer" area. Once the sentence is determined to belong to the "computer" domain, the translation engine 16 then translates the "end users" specific to the "computer" domain into target natural language text 41 provided to the user. To increase the chances of using the translation of "end users", the probability of translation of "end users" specific to the "computer" area is increased. In addition to the mode in which this function works for each sentence, the "automatic region identifier" function can also work on the entire input text. For example, the translation engine 16 determines that the determined number of keywords corresponding to a specific area is the source text 2
If it is within the first n words of n (where n is an integer), it can be determined whether the entire source text 23 belongs to the "computer" area. In the case of the full text mode, all the phrases of the source text 23 having the translation specific to the area included in the dictionary 202 are translated using the translation specific to the area.

【0089】図11を参照すると、自動自然言語翻訳シ
ステム10の翻訳エンジン16は、ソーステキスト23
を受信し、それを自動的に目的自然言語テキスト41に
翻訳するが、この翻訳は本発明の他の特色による文法規
則206の種々の規則に適用されるいくつかの設定やマ
ーク付けにより影響を受ける。これらの設定は、「オー
ルマイティ」や「品詞優先」である。システム10の翻
訳エンジン16は、「オールマイティ」または「品詞優
先」とマーク付けすることができる文法規則206を使
用して、ソース自然言語23の文を解析するパーサー2
6を持つ。パーサー26は、オールマイティ規則が適用
されるソース自然言語23のどの部分に対しても、すべ
ての他の規則の適用を阻止する規則として、「オールマ
イティ」とマーク付けが行われている文法規則を使用す
る。パーサー26は、特定の品詞と同じ品詞に関連する
他の規則だけを阻止する規則として、「品詞優先」とマ
ーク付けが行われている文法規則を使用する。マークが
付けられていない文法規則は、他の規則に対して優先権
を持たない。文法規則に「オールマイティ」または「品
詞優先」のマークを付けることは、そうでない場合に
は、システムの翻訳エンジン16によって作られるツリ
ー構造から、不要な解析枝を削りとる非常に有効な方法
である。文法規則へのこのマーク付けは、また翻訳エン
ジン16か、上記マーク付けをしない場合には作らなけ
ればならない大きなツリー構造を作る必要がなくなり、
また上記マーク付けをしない場合には大きくなるツリー
構造を記憶する必要がなくなるので、時間の点でも記憶
容量の点でも、さらに解析を効率的に行うことができ
る。
Referring to FIG. 11, the translation engine 16 of the automatic natural language translation system 10
And automatically translates it into the target natural language text 41, which translation is affected by some settings and markings applied to various rules of grammar rules 206 according to other features of the present invention. receive. These settings are “almighty” and “part of speech priority”. The translation engine 16 of the system 10 uses a grammar rule 206 that can be marked as “almighty” or “part of speech priority” to parse the source natural language 23 sentence 2
Have 6. The parser 26 uses a grammar rule marked “almighty” as a rule that prevents any other rule from being applied to any part of the source natural language 23 to which the almighty rule applies. Use The parser 26 uses a grammar rule marked "part of speech priority" as a rule that blocks only other rules relating to the same part of speech as a particular part of speech. A grammar rule that is not marked has no priority over other rules. Marking the grammar rules as "almighty" or "part of speech priority" is a very effective way of removing unnecessary parsing branches from the tree structure otherwise created by the translation engine 16 of the system. is there. This marking of grammar rules also eliminates the need for the translation engine 16 or the large tree structure that would otherwise have to be created without the above marking,
In addition, if the above-mentioned marking is not performed, it is not necessary to store a tree structure which becomes large, so that analysis can be performed more efficiently in terms of time and storage capacity.

【0090】この文法規則のマーク付け機能の例とし
て、文法規則が次の三つの規則を含むとする。
As an example of the grammar rule marking function, it is assumed that the grammar rule includes the following three rules.

【0091】(1)名詞=数+ハイフン(−)+序数の
百(例えば、three-hundredth) (2)名詞=名詞+ハイフン(−)+名詞(例えば、sc
hool-building) (3)名詞句=数+名詞(例えば、one book) また、システム10は次の三つの見出し語を含む辞書を
使用するとする。
(1) Noun = number + hyphen (-) + ordinal hundred (for example, three-hundredth) (2) Noun = noun + hyphen (-) + noun (for example, sc
hool-building) (3) Noun phrase = number + noun (for example, one book) Further, it is assumed that the system 10 uses a dictionary including the following three headwords.

【0092】 これらの文法規則と辞書の見出し語があるとき、ソース
テキストに含まれる単語列「one eighteen-hundredth」
は以下の二つの方法により解析できる。
[0092] When there are these grammatical rules and dictionary headwords, the word string "one eighteen-hundredth" included in the source text
Can be analyzed by the following two methods.

【0093】[0093]

【数2】 文法規則(1)に「オールマイティ」というマーク付け
がされていると、「one eighteen-hundredth」という単
語列の他のすべての解析(上記の第二の解析のように)
は除外されてしまうので、これら二つの解析では一番目
が使用される。他のすべての規則を支配するオールマイ
ティ規則(1)が使用される。文法規則(1)が「品詞
優先」のマーク付けをされているときは、同様に二番目
よりも一番目の解析が選択されるが、この場合は、規則
(1)と規則(2)が同じ品詞をアドレスしており、制
御(すなわち、品詞優先)マークが付加された規則
(1)により、文法規則(1)が単語列の解析に使用さ
れる。次の例が示しているように、「オールマイティ」
と「品詞優先」は別のものであり、「オールマイティ」
マークが付けられている規則で翻訳したときは、「品詞
優先」マークが付けられている場合と、必ずしも同じ結
果を生じない。
(Equation 2) If grammar rule (1) is marked as "almighty", all other parsing of the word string "one eighteen-hundredth" (as in the second parsing above)
Is excluded, so the first is used in these two analyses. The almighty rule (1) governing all other rules is used. When the grammar rule (1) is marked as “part of speech priority”, the first analysis is selected similarly to the second analysis. In this case, the rules (1) and (2) are The rule (1), which addresses the same part of speech and is provided with a control (ie, part of speech priority) mark, causes the grammar rule (1) to be used for word string analysis. "Almighty", as the following example shows:
And "part of speech priority" are different, and "almighty"
When the translation is performed according to the rule with the mark, the result is not always the same as when the “part of speech priority” mark is added.

【0094】次の四つの文法規則で、第三の規則には、
「品詞優先」のマークが付けられているとする。
In the following four grammatical rules, the third rule includes:
It is assumed that the mark of “part of speech priority” is attached.

【0095】(1)名詞=名詞+名詞 (2)名詞句=名詞 (3)名詞句=数+名詞{品詞優先} (例えば、in F
OUR DAYS) (4)副詞句=数+副詞的名詞 (例えば、I work FOUR
DAYS a week) また、システム10は、次の見出し語を含む辞書を使用
する。
(1) Noun = noun + noun (2) Noun phrase = noun (3) Noun phrase = number + noun {part of speech priority} (for example, in F
OUR DAYS) (4) Adverb phrase = number + adverbial noun (for example, I work FOUR
DAYS a week) In addition, the system 10 uses a dictionary including the following headword.

【0096】 このような文法規則と辞書の見出し語があるとき、ソー
ステキストに含まれる単語列「I work four days」は、
下記の三つの方法と句レベルで解析できる。
[0096] Given these grammatical rules and dictionary headwords, the word string "I work four days" contained in the source text,
It can be analyzed at the following three methods and phrase levels.

【0097】[0097]

【数3】 「品詞優先」とマークされている文法規則(3)の場合
には、文法規則(3)は同じ単語列(「four days」)
を、同じ品詞である名詞句として解析するような他のす
べての文法規則の適用を排除し、文法規則(2)は「fo
u days」を名詞句として解析しているから、上記三つの
解析の一番目が第二の解析よりも優先して使用される。
しかし、品詞として名詞句とは別の副詞句を持っている
から上記の第三の解析が排除されるというわけではな
い。このように、文法規則(3)を「オールマイティ」
とマークすると、ほかのどの文法規則(3)も適用され
ないようになるが、文法規則(3)を「品詞優先」とマ
ークすると、文法規則(3)と同じ品詞をアドレスする
他の規則だけが除外される。
(Equation 3) In the case of grammar rule (3) marked as "part of speech priority", grammar rule (3) is the same word string ("four days")
Grammar rule (2) excludes the application of all other grammatical rules that parse
Since “u days” is analyzed as a noun phrase, the first of the above three analyzes is used in preference to the second analysis.
However, since the part of speech has an adverb phrase different from the noun phrase, the above-mentioned third analysis is not excluded. Thus, grammar rule (3) is changed to "almighty".
Would not apply any other grammar rule (3), but if grammar rule (3) is marked as “part of speech priority”, only other rules that address the same part of speech as grammar rule (3) Excluded.

【0098】図12を参照すると、自動自然言語翻訳シ
ステム10の翻訳エンジン16は、ソーステキスト23
を受信し、それを自動的に目的自然言語テキスト41に
翻訳するが、この翻訳は本発明の他の特色による辞書の
見出し語と関連づけられた確率値により影響を受ける。
この確率値特性に従って、翻訳エンジン16のパーサー
26は、最終のツリー構造の構成要素になる確率が非常
に低いか、絶対的に構成要素にはならないとマークされ
ている見出し語を含む辞書208を使用する。辞書20
8は、複合語の見出し語を含み、それら見出し語の少な
くとも一つには、非常に低い確率の値がマークされてい
て、ソース自然言語23のどの文の正しい解析ツリーに
おいても指定の品詞として機能する確率がほとんどない
ことを示す。マークが付いている見出し語が、ある入力
文の解析ツリー構造に含まれている場合には、そのマー
クが付いている見出し語に関連する確率の値が低いため
に、その解析ツリーがその文に対して正しいものである
確率は非常に低くなる。確率の値をこのように使用する
ことによって、システム10の翻訳エンジン16によっ
て作られたツリー構造の除去効果をもつことができる。
Referring to FIG. 12, the translation engine 16 of the automatic natural language translation system 10
And automatically translates it into the target natural language text 41, which translation is affected by the probability value associated with the dictionary entry according to another feature of the present invention.
According to this probability value property, the parser 26 of the translation engine 16 creates a dictionary 208 containing headwords that are either very unlikely to be a component of the final tree structure or that are marked as not being a component. use. Dictionary 20
8 includes compound headwords, at least one of which is marked with a very low probability value, as a specified part of speech in the correct parse tree of any sentence in source natural language 23. Indicates little probability of functioning. If the headword with the mark is included in the parse tree structure of a certain input sentence, the parse tree is not included in the sentence because the probability value associated with the headword with the mark is low. Is very low. This use of probability values can have the effect of removing the tree structure created by the translation engine 16 of the system 10.

【0099】確率の値の使用例として、次の複合語の見
出し語を含む辞書があるとする。
As an example of using the value of the probability, it is assumed that there is a dictionary containing the following compound word entry words.

【0100】 見出し語 品詞 文法規則 確率 in today 前置詞句 品詞優先 P(n) この場合、P(n)は、与えられたソーステキスト文で
見出し語「in today」が実際に前置詞句であるという想
定した確率値を奏す。P(n)は、その辞書の通常の複
合語の見出し語と比較すると無限に小さな数値に設定し
てあるとする。入力文は次の文である。
[0100] assumption that the entry word part of speech grammar rules probability in today prepositional phrase part of speech priority P (n) in this case, P (n) is to find words in a given source text sentence "in today" is in fact a prepositional phrase Play the probability value. It is assumed that P (n) is set to an infinitely small numerical value as compared with a normal compound word entry in the dictionary. The input sentence is:

【0101】He didn't come in today. この文は構文的に曖昧で、次の二つの文のように解釈で
きる He didn't {come in} today. と He didn't come {in today}. (in today)は、一致する辞書の見出し語の関連する確
率が非常に無限に小さい値、P(n)を持っているか
ら、この文が第二の文として解析される確率は非常に少
なくなる。「in today」には品詞優先のマークが付いて
いるので、通常の確率の値を与えることができる前置詞
句として解析する以外の解析がない。このように、この
文の不適切な解析は低く評価される。「in today」に対
するP(n)がゼロに設定されている場合には、パーサ
ーは、上記文の解析を行うのに「intoday−前置詞句」
を全く使用しない。しかし、この特定の例でいえば、次
のような文で使われることがあるので、P(n)をゼロ
に設定するのは望ましくない。
This sentence is syntactically ambiguous and can be interpreted as the following two sentences: He didn't {come in} today. And He didn't come {in today}. (In today) has a very infinitely small value of the associated probability of a matching dictionary entry word, P (n), so the probability that this sentence will be parsed as a second sentence is very high. Less. Since "in today" is marked with the part of speech priority, there is no analysis other than analyzing it as a prepositional phrase that can give a normal probability value. Thus, improper parsing of this sentence is undervalued. If P (n) for "in today" is set to zero, the parser will use the "intoday-preposition phrase" to parse the above sentence.
Is not used at all. However, in this particular example, it is not desirable to set P (n) to zero, as it may be used in statements such as:

【0102】I am interested in today, and not in t
omorrow. この場合、「in today」を前置詞句として解析するのが
妥当である。ゼロの代わりに低いP(n)値を使用すれ
ば、好ましくない文法構造解析である。
[0102] I am interested in today, and not in t
omorrow. In this case, it is appropriate to analyze "in today" as a prepositional phrase. Using a low P (n) value instead of zero is an undesirable grammar structure analysis.

【0103】He didn't come {in day}. を除外することができ、一方で、 I am interested in today, and not in tommorow. を、「in today」を前置詞句として解析するように、正
しく解析することができる。
He didn't come {in day}. Can be excluded, while I am interested in today, and not in tommorow. Can be correctly interpreted as parsing "in today" as a prepositional phrase. Can be analyzed.

【0104】上記のすべての機能と処理は、汎用コンピ
ュータに組み込まれた種々のハード配線論理設計および
/またはプログラミング技術により実装することができ
る。フローチャートに示したステップは、通常、順序ど
おりに適用する必要はなく、いくつかのステップを組み
合わせることができる。また、このシステムの機能は、
種々の形でプログラムとデータに振り分けることができ
る。さらに、文法や他の操作規則を、コンパイルしたフ
ォーマットでユーザに提供する一方で、一つまたは複数
のハイレベル言語で開発しておけば有利である。
All of the above functions and processes can be implemented by various hard-wired logic design and / or programming techniques incorporated in a general-purpose computer. The steps shown in the flowchart typically do not need to be applied in order, and some steps may be combined. Also, the function of this system is
It can be divided into programs and data in various ways. In addition, it would be advantageous if the grammar and other operating rules were provided to the user in a compiled format, while being developed in one or more high-level languages.

【0105】本明細書に開示したすべての機能を含め
て、上記の自動自然言語翻訳システムの具体例のいずれ
も、汎用コンピュータ(例えば、アップル・マッキント
ッシュ、IBM PCと互換機、SUNワークステーシ
ョン等)で実行できるディスクや光学的コンパクト・デ
ィスク(CD)のようなコンピュータが読み取れる媒体
のコンピュータ・ソフトウェアとして提供することがで
きる。
Any of the above embodiments of the automatic natural language translation system, including all of the features disclosed herein, may be implemented on general purpose computers (eg, Apple Macintosh, IBM PC and compatibles, SUN workstations, etc.). And a computer readable medium such as an optical compact disc (CD).

【0106】通常の当業者であれば、請求の範囲に記載
した本発明の精神および範囲から逸脱することなく、本
明細書に記載した発明を様々に変更したり、修正したり
別に実装することができるだろう。従って、本発明は上
記の例示としての説明によってではなく、下記の請求の
精神と範囲によって定義される。
Those skilled in the art will appreciate that various changes, modifications, and alternative implementations of the invention described herein can be made without departing from the spirit and scope of the invention as set forth in the appended claims. Will be able to. Accordingly, the invention is to be defined not by the preceding illustrative description but instead by the spirit and scope of the following claims.

【図面の簡単な説明】[Brief description of the drawings]

各図中、同じ参照番号は、一般的に、別の図面であって
も同じ部品を示す。また図面は必ずしも同一の縮尺では
なく、一般的に本発明の原理を説明することに重点を置
いている。
The same reference numbers in different drawings generally identify the same parts, even in different drawings. The drawings are not necessarily to scale, emphasis instead generally being placed upon illustrating the principles of the invention.

【図1】本発明の自然言語の自動翻訳を行うシステムの
ブロック図
FIG. 1 is a block diagram of a system for automatically translating a natural language according to the present invention.

【図2】図1のシステムの全体的な機能を示すデータの
フローチャート
FIG. 2 is a data flow chart showing the overall function of the system of FIG. 1;

【図3】図1のシステムの動作を示すフローチャートFIG. 3 is a flowchart showing the operation of the system of FIG. 1;

【図4】図1のシステムのプリパーサーの文末認定機能
の動作を示すフローチャート
FIG. 4 is a flowchart showing an operation of a sentence end recognition function of a preparser of the system of FIG. 1;

【図5】図1のシステムのパーサーの動作を示すフロー
チャート
FIG. 5 is a flowchart showing the operation of the parser of the system of FIG. 1;

【図6】図1のシステムの意味伝達の動作を示すフロー
チャート
FIG. 6 is a flowchart showing an operation of meaning transmission of the system of FIG. 1;

【図7】図1のシステムの構造変換の動作を示すフロー
チャート
FIG. 7 is a flowchart showing the structure conversion operation of the system of FIG. 1;

【図8】図1のシステムのエキスパート評価子のフロー
チャート
FIG. 8 is a flowchart of an expert evaluator of the system of FIG. 1;

【図9】例示としての句「by the bank」に対して、図
1のシステムが使用するサンプル・グラフを示す図
FIG. 9 illustrates a sample graph used by the system of FIG. 1 for the example phrase “by the bank”.

【図10】自動自然言語翻訳システムが実行する、本発
明の一つの局面による「自動領域識別子」機能の図
FIG. 10 is a diagram of an “automatic region identifier” function performed by an automatic natural language translation system according to one aspect of the present invention.

【図11】自動自然言語翻訳システムが実行する、本発
明の別の局面によるひとつの特徴であり、ソーステキス
トを目的自然言語に翻訳するのにどの文法規則を適用す
るかに影響を与える特性の図
FIG. 11 illustrates one feature according to another aspect of the invention performed by the automatic natural language translation system, which is a characteristic that affects which grammatical rule is applied to translate a source text into a target natural language. Figure

【図12】自動自然言語翻訳システムが実行する、本発
明のさらに別の局面のよるひとつの特徴であり、不適切
な翻訳を除去するために辞書の見出し語に付けられた確
率の値を含む機能の図
FIG. 12 is a feature performed by an automatic natural language translation system according to yet another aspect of the invention, including a probability value assigned to a dictionary entry to remove improper translations. Function diagram

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 辞書が記憶された記憶装置と、 前記辞書を用いて、ソース自然言語で書かれた入力テキ
スト情報を目的自然言語で書かれた出力テキスト情報に
翻訳する翻訳エンジンとを備え、 前記辞書は、前記ソース自然言語で書かれた見出し語
と、前記見出し語に対応付けられたマークと、前記マー
ク付きの見出し語に割り当てられた確率値とを含み、 前記確率値は、前記マーク付きの見出し語が特定の品詞
として前記目的自然言語で書かれた訳語に翻訳される確
率を表し、前記見出し語は、複数の語句から構成されて
おり、 前記翻訳エンジンは、 前記マーク付きの見出し語に割り当てられた前記確率値
に応じて、前記マーク付きの見出し語を前記特定の品詞
として解析する解析手段を含む、自動自然言語翻訳シス
テム。
1. A storage device in which a dictionary is stored, and a translation engine that translates input text information written in a source natural language into output text information written in a target natural language using the dictionary. The dictionary includes a headword written in the source natural language, a mark associated with the headword, and a probability value assigned to the marked headword, wherein the probability value is the mark Indicates the probability that a headword with a mark is translated into a translation written in the target natural language as a specific part of speech, wherein the headword is composed of a plurality of phrases, and the translation engine comprises: An automatic natural language translation system, comprising: analysis means for analyzing the marked headword as the specific part of speech according to the probability value assigned to a word.
JP2001358589A 2001-11-22 2001-11-22 Automatic natural language translation system Withdrawn JP2002197085A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001358589A JP2002197085A (en) 2001-11-22 2001-11-22 Automatic natural language translation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001358589A JP2002197085A (en) 2001-11-22 2001-11-22 Automatic natural language translation system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP53801197A Division JP3743678B2 (en) 1996-04-23 1996-04-23 Automatic natural language translation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002332946A Division JP2003196282A (en) 2002-11-15 2002-11-15 Automatic natural language translating system

Publications (1)

Publication Number Publication Date
JP2002197085A true JP2002197085A (en) 2002-07-12

Family

ID=19169743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001358589A Withdrawn JP2002197085A (en) 2001-11-22 2001-11-22 Automatic natural language translation system

Country Status (1)

Country Link
JP (1) JP2002197085A (en)

Similar Documents

Publication Publication Date Title
US6278967B1 (en) Automated system for generating natural language translations that are domain-specific, grammar rule-based, and/or based on part-of-speech analysis
US6760695B1 (en) Automated natural language processing
US6470306B1 (en) Automated translation of annotated text based on the determination of locations for inserting annotation tokens and linked ending, end-of-sentence or language tokens
US5528491A (en) Apparatus and method for automated natural language translation
US9710458B2 (en) System for natural language understanding
US7526424B2 (en) Sentence realization model for a natural language generation system
US9824083B2 (en) System for natural language understanding
US9613026B2 (en) System and method for interactive automatic translation
US11210468B2 (en) System and method for comparing plurality of documents
JP2006164293A (en) Automatic natural language translation
US20030130837A1 (en) Computer based summarization of natural language documents
US9053090B2 (en) Translating texts between languages
JP2003050797A (en) Scaleable machine translation system
JP2003030185A (en) Automatic extraction of transfer mapping from bilingual corpora
JP2004513458A (en) User-changeable translation weights
US10503769B2 (en) System for natural language understanding
JP2609173B2 (en) Example-driven machine translation method
JP3743711B2 (en) Automatic natural language translation system
WO1997048058A9 (en) Automated translation of annotated text
WO1997048058A1 (en) Automated translation of annotated text
JP2002197085A (en) Automatic natural language translation system
JP2006134349A (en) Automatic natural language translation system
JP2003203071A (en) Automated natural language translating system
Narayan et al. Pre-Neural Approaches
JP2003196281A (en) Automatic natural language translating system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20021017

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040212

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20040216

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20040413