JPS62221775A - Natural language processing system - Google Patents

Natural language processing system

Info

Publication number
JPS62221775A
JPS62221775A JP61063571A JP6357186A JPS62221775A JP S62221775 A JPS62221775 A JP S62221775A JP 61063571 A JP61063571 A JP 61063571A JP 6357186 A JP6357186 A JP 6357186A JP S62221775 A JPS62221775 A JP S62221775A
Authority
JP
Japan
Prior art keywords
class
sentence
rule
language
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61063571A
Other languages
Japanese (ja)
Inventor
Takayo Futamura
二村 高代
Toshiaki Yoshino
利明 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP61063571A priority Critical patent/JPS62221775A/en
Publication of JPS62221775A publication Critical patent/JPS62221775A/en
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

PURPOSE:To facilitate the extension of a grammar rule and at the same time to reduce the description amount of the rule, by defining a language model with an object of a class level and describing the grammar rule within the class in division into rule sets. CONSTITUTION:A word model 14 expresses the attribute relation and the high- order/low-order relation between objects in terms of the subject field related to the language meaning. A grammar rule is described in division into rule sets within a class where a language model 15 formed in a hierarchical structure by an object of a class level has a high-order/low-order rank relation. A modeling system 16 controls the objects forming a class. When an input language like a Japanese sentence, etc. is inputted through an input part 11, a word division processing part 12 refers to a word dictionary 13 to divide the input sentence into words. A sentence structure/meaning analysis part 17 uses the model 15 to interpret the sentence structure and produces a sentence structure analysis tree for input sentences. Then the part 17 makes use of the model 14 based on the sentence structure/analysis tree to interpret the meaning and produces a speech act of the input sentence.

Description

【発明の詳細な説明】 〔概要〕 世界モデル、階層構造をもつ言語モデルを利用して、自
然言語の構文・意味解析を行なう自然言語処理方式であ
って、クラスレベルのオブジェクトにより言語モデルを
定義し、そのクラス内に文法ルールをルールセットに分
割記述することで、ルールの拡張を容易にすると共に、
それらルールを上位下位関係にあるクラス内に記述しル
ールのインへりタンスを利用してルールの記述量を減ら
すものである。
[Detailed Description of the Invention] [Summary] A natural language processing method that performs syntactic and semantic analysis of natural language using a world model and a language model with a hierarchical structure, in which the language model is defined by class-level objects. By dividing the grammar rules into rule sets within that class, it is easy to expand the rules, and
These rules are written in classes that have a superordinate relationship, and the inheritance of the rules is used to reduce the amount of rules written.

〔産業上の利用分野〕[Industrial application field]

本発明は、日本語文などの入力自然言語を、コンピュー
タが理解できるように解析する自然言語処理方式に係り
、特に文法ルールの拡張性を高めると共に、その記述量
を減らずことができる自然言語処理方式に関するもので
ある。
The present invention relates to a natural language processing method that analyzes input natural language such as Japanese sentences so that it can be understood by a computer.In particular, the present invention relates to a natural language processing method that can improve the extensibility of grammatical rules without reducing the amount of description. It is related to the method.

〔従来の技術〕[Conventional technology]

使い易いデータベース検索システムや、機械翻訳システ
ムを作るためには、コンピュータが、入力された自然言
語についてユーザが意図する正しい意味解釈を実行でき
るようにしなければならない。そして、コンピュータが
自然言語を理解することば、コンピュータが正しい構文
木を生成し、各単語について、その入力文が表している
対象分野に対応する正しい意味概念を把握することであ
る。
In order to create an easy-to-use database search system or machine translation system, computers must be able to interpret the natural language input correctly as intended by the user. In order for a computer to understand natural language, the computer generates a correct syntax tree, and for each word, it grasps the correct semantic concept corresponding to the target field expressed by the input sentence.

上記構文木は、単に文法上からのみ解決することば困難
であり、正しい修飾関係を得るために、対象オブジェク
トに関する意味関係を示す世界モデルが利用される。世
界モデルは、言語の意味が関連する分野について、オブ
ジェク1〜相互間の属性関係と上位下位関係を表現する
もので、この世界モデルを用いたモデリング・システム
としては、例えば特願昭59−10982号等が知られ
ている。
The above syntax tree is difficult to solve solely from a grammatical point of view, and in order to obtain correct modification relationships, a world model showing semantic relationships regarding target objects is used. The world model expresses the attribute relationships and superior/subordinate relationships between objects 1 and each other in fields related to the meaning of language.As a modeling system using this world model, for example, The number etc. are known.

自然言語について、構文解析を行なう場合、文法ルール
を記述した言語モデルを作成し、この言語モデルに従っ
て、文章を構成する各単語が、文中でどのような文法機
能を果たしているかを解析するようになっている。
When performing syntactic analysis of natural language, a language model is created that describes the grammatical rules, and based on this language model, the grammatical function of each word that makes up the sentence is analyzed. ing.

従来、このような構文解析のために入力文の言語に応じ
た文法ルールの記述方式としては、ルールのべた書き方
j(′?〕バケット化の方法がある。
Conventionally, as a method of writing grammar rules according to the language of the input sentence for such syntactic analysis, there is a method of writing the rules in a single bucket (j('?)).

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

ルールのべた書き方式では、入力文の言語に応じた変更
拡張が困難であると云う問題があり、また、パケット化
方工(では、ルールが分割されているが、ルールのイン
・\リタンスができないため、同じルールを何度も重複
して記述しなければならないと云う問題があった。
With the rule writing method, there is a problem that it is difficult to modify and expand according to the language of the input sentence, and with the packetization method (the rules are divided, the in/return of the rules is Because this is not possible, there was a problem in that the same rules had to be written over and over again.

本発明は上記問題点を解決するためになされたもので、
ルールのモジュール化やルールの拡張を容易にし、かつ
ルールの記述量を減少できる自然言語処理方式を提供す
ることを目的とする。
The present invention has been made to solve the above problems,
The purpose of this invention is to provide a natural language processing method that facilitates rule modularization and rule expansion, and reduces the amount of rule description.

〔問題点を解決するためのT段〕[T stage for solving problems]

第1図は本発明の自然言語処理方式の基本構成図を示す
FIG. 1 shows a basic configuration diagram of the natural language processing method of the present invention.

同図において、11は自然言語を入力する入力部、12
は入力文を単語辞書I3の情報に従って単語に分割する
単語分割処理部であり、上記単語辞書13には、各単語
に対応して品詞や世界モデル14に表されたオブジェク
ト等の情報が格納されている。また、上記世界モデル1
4は言語の意味が関連する対象分野について、オブジェ
クト相互間の属性関係と上位・下位関係を表現するもの
である。
In the figure, 11 is an input unit for inputting natural language;
is a word division processing unit that divides an input sentence into words according to information in a word dictionary I3, and the word dictionary 13 stores information such as parts of speech and objects represented in the world model 14 corresponding to each word. ing. In addition, the above world model 1
4 expresses attribute relationships and superior/subordinate relationships between objects in a target field related to the meaning of language.

15はクラスレヘルのオブジェクトにより階層構造に構
成された言語モデルで、その上位下位関係にあるクラス
内には文法ルールがルールセットに分割して記述されて
いる。16はクラスを構成するオブジェクトを管理する
モデリング・システム、17は世界モデル14及び言語
モデル15を利用して入力文の構文解析木を生成し、そ
の入力文のスピーチアクトを生成する構文・意味解析部
である。
Reference numeral 15 denotes a language model configured in a hierarchical structure using class-level objects, in which grammar rules are divided into rule sets and described in classes that are in a superior-subordinate relationship. 16 is a modeling system that manages objects that make up a class; 17 is a syntactic/semantic analysis that uses the world model 14 and the language model 15 to generate a parse tree for an input sentence, and generates a speech act for the input sentence; Department.

〔作用〕[Effect]

本発明においては、入力部11によって、日本語文等の
入力言語文が入力されると、単語分割処理部12は単語
辞書13を参照して入力文を各単語に分割する。構文・
意味解析部17では、階層構造を持つ言語モデル15を
利用して構文解釈することにより入力文の構文解析木を
生成すると共に、この構文解析木をもとに世界モデル1
4を利用して意味解釈し、入力文のスピーチアクトを生
成する。
In the present invention, when an input language sentence such as a Japanese sentence is input by the input unit 11, the word division processing unit 12 refers to the word dictionary 13 and divides the input sentence into words. syntax·
The semantic analysis unit 17 generates a parse tree of the input sentence by interpreting the syntax using the language model 15 having a hierarchical structure, and also creates a world model 1 based on this parse tree.
4 to interpret the meaning and generate speech acts of the input sentence.

本発明の場合、言語モデルのクラスオブジェクト中に、
文法ルールを単語2節1文及びその他の文法属性によっ
て分類し、これらを上位下位関係にあるクラス内に記述
されているから、ルールのインへりタンスが可能となり
、これに伴いルールの記述量が減少する。また、クラス
内に文法ルールをルールセットとして分割記述している
から、ルールのモジュール化やルールの拡張が容易にな
る。
In the case of the present invention, in the class object of the language model,
Grammar rules are classified into two words, one sentence, and other grammatical attributes, and these are written in classes that have a superior-subordinate relationship. This makes it possible to inherit rules, and this reduces the amount of rules written. Decrease. Furthermore, since grammar rules are divided and described as rule sets within a class, modularization and expansion of rules becomes easy.

〔実施例〕〔Example〕

第2図は本発明が適用されるシステム構成例、第3図は
本発明に関連する言語モデルの例、第4図は同じく本発
明に関連する世界モデルの例、第5図及び第6図はオブ
ジェクト「動詞文クラス」のルールセット記述例、第7
図は本発明に関連する言語モデルの他の例を示す。
FIG. 2 is an example of a system configuration to which the present invention is applied, FIG. 3 is an example of a language model related to the present invention, FIG. 4 is an example of a world model also related to the present invention, and FIGS. 5 and 6 is an example of the ruleset description for the object “verb sentence class”, No. 7
The figure shows another example of a language model relevant to the present invention.

第2図は、本発明の自然言語処理方式をデータベース検
索システムに適用した例を示している。
FIG. 2 shows an example in which the natural language processing method of the present invention is applied to a database search system.

この第2図において、20は仮名漢字変換用の辞書、2
1はキーボード/ディスプレイ等の入出力装置で、第1
図の入力部11に対応している。22はユーザとシステ
ムとのインクラクションを行なうインタラフタ、23は
第1図に示す単語分割処理部12に相当する形態素解析
部であって、単語辞書13を参照し、入力文を単語に分
割すると共に、入力文中の各単語に、単語辞書13中の
辞書クラスに記述された属性を付加する。
In this Figure 2, 20 is a dictionary for kana-kanji conversion;
1 is an input/output device such as a keyboard/display;
This corresponds to the input section 11 in the figure. Reference numeral 22 denotes an interactor that performs interaction between the user and the system, and 23 is a morphological analysis unit corresponding to the word division processing unit 12 shown in FIG. 1, which refers to the word dictionary 13 and divides the input sentence into words. , the attribute described in the dictionary class in the word dictionary 13 is added to each word in the input sentence.

構文・意味解析部17は、本発明の主要部をなすもので
、第1図に示す場合と同様に入力文の構文解析木を生成
し、その入力文のスピーチアクトを生成する。文脈処理
部24は、入力文が第2文目以降で、かつ、それが前文
と関係があると判定された時に、構文・意味解析部17
で生成されたスピーチアクトを、前文の入力から生成さ
れたスピーチアクトで修飾する。この修飾されたスピー
チアクトが文脈処理部24の出力である。また、前文と
の関係が見い出されなかった場合には、構文・意味解析
部17の出力が、そのまま文脈処理部24の出力となる
The syntactic/semantic analysis section 17 is a main part of the present invention, and generates a syntactic analysis tree of an input sentence and generates a speech act of the input sentence, as in the case shown in FIG. When the input sentence is the second or subsequent sentence and it is determined that it is related to the previous sentence, the context processing unit 24 executes the syntactic/semantic analysis unit 17.
Modify the speech act generated by the speech act generated from the input of the preamble. This modified speech act is the output of the context processing section 24. Further, if no relationship with the preamble is found, the output of the syntax/semantic analysis section 17 becomes the output of the context processing section 24 as is.

言替生成部25は、システムの入力文の解釈をユーザに
示し、ユーザに確認を得る処理を実行するもので、文脈
処理部24の出力であるスピーチアクトから日本語文を
生成し、ユーザに意味の確認を求める。
The paraphrase generation unit 25 executes processing to show the user the interpretation of the input sentence of the system and obtain confirmation from the user, and generates a Japanese sentence from the speech act that is the output of the context processing unit 24 to explain the meaning to the user. Ask for confirmation.

コマンド生成部26は、文脈処理部24の出力であるス
ピーチアクトからデータベース検索のためのコマンドを
生成する。データ検索部27は、データベース管理シス
テム29にコマンド生成部し、データベース30を検索
する。応答生成部28は、データベース30の検索結果
を表示するものであって、最初に検索したデータ数を示
す。さらにユーザが表示を求めた場合、検索データを順
次表示する。モデリング・システム162世界モデル1
4及び言語モデル15は第1図に示すものと同様のもの
である。31は単語辞書13や世界モデル14及び言語
モデル15を含むモデリング・システムに関する情報を
編集するモデル・エディタである。
The command generation unit 26 generates a command for database search from the speech act that is the output of the context processing unit 24. The data search unit 27 sends a command to the database management system 29 and searches the database 30 . The response generation unit 28 displays the search results of the database 30, and indicates the number of data searched initially. Furthermore, when the user requests display, the search data is displayed sequentially. Modeling System 162 World Model 1
4 and language model 15 are similar to those shown in FIG. 31 is a model editor that edits information regarding the modeling system including the word dictionary 13, the world model 14, and the language model 15.

第3図は言語モデル15の詳細を示すもので、言語モデ
ルがどのように分類され、そしてその言語モデルにルー
ルがどのように記述されて働いているかについて説明す
る。
FIG. 3 shows details of the language model 15, and explains how language models are classified and how rules are written and operated in the language model.

第3図において、言語モデル(LM)のクラスは、「単
位]クラスを最上位に持ち、その下位に「単語」クラス
、「節」クラス、「文」クラスを持つ3つのクラスに大
分類されている。
In Figure 3, the language model (LM) classes are roughly divided into three classes, with the "unit" class at the top, and the "word" class, "clause" class, and "sentence" class below it. ing.

上記「単語」クラスは、r?ii助詞」クラス、「動詞
」クラス、1名詞」クラス、1句点」クラスに小分類さ
れ、さらに「補助用」クラスは、「助詞」クラスと「助
動詞」クラスに分類される。また、「動詞」クラスは「
アーク動詞」クラス、「クラス動詞」クラス、「一般動
詞jクラスの3種に区分される。この区分では、世界モ
デル14 (第3図参照)のクラスに対応する動詞を「
クラス動詞」クラスと定義する。例えば、販売モデルに
対しては、「販売する」、「出荷する」などである。世
界モデルのアーク(第3図の破線で結ばれるもの)に対
応した動詞を1アーク動詞」クラスと定義する。これは
、例えば「中厚にある工場jなる文中の1ある」と云う
動詞である。この動詞は世界モデル上で工場所在地と工
場を結ぶアークに対応している。世界モデルに対応しな
い動詞を「一般動詞」クラスとする(例えば、表示せよ
The above "word" class is r? ii particle" class, "verb" class, 1-noun" class, and 1-pause" class, and the "auxiliary" class is further classified into the "particle" class and the "auxiliary verb" class. Also, the "verb" class is "
The verbs are classified into three types: the "arc verb" class, the "class verb" class, and the "general verb j class."
Class verb is defined as "class". For example, for a sales model, "sell", "ship", etc. Verbs corresponding to the arcs of the world model (those connected by broken lines in Figure 3) are defined as the "1-arc verb" class. This is, for example, the verb ``There is one in the sentence ``Factory j in Nakaatsu''. This verb corresponds to the arc connecting the factory location and the factory on the world model. Put verbs that do not correspond to the world model into the "general verb" class (e.g., display.

見たい等)。「名詞」クラスは、その下位に「クラス名
詞」クラスを持ち、さらに「クラス名詞jクラスは、「
疑問詞」クラス(例えば、それ、いくら等)と、「複合
名詞4クラス(例えば5億Å以上、東海道以北など)と
、「値名詞」クラスの3つに区分される。「値名詞」ク
ラスは、世界モデルでインスタンス化した時、値となり
得るもので、辞書中にValue  (値)属性を持っ
ている。例えば、[○○屋で200本のビールを販売し
た。」と云う入力文において、販売店名である「○○屋
」は「販売店名」クラスにインスタンス化された時、そ
のクラス内に「○○屋」は値として記述される。
I want to see it, etc.) The "noun" class has a "class noun" class below it, and the "class noun j class has "
It is divided into three classes: the "interrogative word" class (for example, it, how much, etc.), the "4 compound noun class" (for example, 500 million Å or more, north of Tokaido, etc.), and the "value noun" class. The "value noun" class can be a value when instantiated in the world model, and has a Value attribute in the dictionary. For example, [I sold 200 bottles of beer at ○○ shop. ”, when the store name “○○ya” is instantiated in the “store name” class, “○○ya” is written as a value in that class.

「句点jクラスは、入力文の句点、読点に対応するクラ
スである。
``The period j class is a class corresponding to the period and comma of the input sentence.

1節」クラスは、1名詞節」クラス、1句点節」クラス
及び「動詞節」クラスの3つに区分される。
The "1 clause" class is divided into three classes: a "1 noun clause" class, a "1 punctuated clause" class, and a "verb clause" class.

ここで、「助詞」クラスは、1名詞」クラスあるいは「
動詞」クラスと結合して、「名詞節」クラス、「動詞節
」クラスを生成する。また、節同士が結び付いて、新し
い節を生成することも可能である。
Here, the ``particle'' class is the ``1 noun'' class or the ``1 noun'' class.
It is combined with the ``Verb'' class to generate the ``Noun Clause'' class and the ``Verb Clause'' class. It is also possible to combine nodes to generate new nodes.

「動詞節」クラスは、上記「単語」クラスの1動詞」ク
ラスと同様に「アーク動詞」クラス、1クラス動詞」ク
ラス及び「一般動詞」クラスの3種のいずれかに分類さ
れ、さらにその動詞の活用形で、「アーク動詞終止形」
クラス、「一般動詞終止形」クラス、「クラス動詞終止
形」クラスに細分類される。例えば、「ビール500本
生産された」の「生産された」はクラス動詞の終止形で
ある。また、「動詞節」クラスは、その下位に「終止形
」及び「連体形」クラスを持ち、「終止形」クラスは下
位のアーク、一般、クラスの各動用終止形クラスに関連
している。そして、例えば「販売している」は動詞節の
連体形に相当する。
The "verb clause" class is classified into one of three types: "arc verb" class, "1 class verb" class, and "general verb" class, similar to the "1 verb" class of the "word" class above, and furthermore, the verb In the conjugated form, "arc verb final form"
It is subdivided into the ``general verb final form'' class, and the ``class verb final form'' class. For example, "produced" in "500 bottles of beer were produced" is the final form of the class verb. Further, the "verb clause" class has the "final form" and "adjunctive form" classes below it, and the "final form" class is related to each of the lower arc, general, and class conjugative final form classes. For example, ``sell'' corresponds to the adnominal form of the verb clause.

「文」クラスは、1名詞文」クラス、「動詞文jクラス
に分類されている。1名詞文」クラスは、「は名詞文」
クラスと、「か名詞文」クラスと、「です名詞文」クラ
スの3種類に分類され、また、「動詞文」クラスは、上
記「動詞節」クラスで分類されたのと同様に、アーク、
一般、クラスの3種類の動詞クラスに区分されると共に
、その動詞の活用形によって、図示のように細分類され
る。
The "Sentence" class is classified into the "1 Noun Sentence" class and the "Verb Sentence j class. The "1 Noun Sentence" class is classified into the "Ha Noun Sentence" class.
The class is divided into three types: the ``noun sentence'' class, the ``noun sentence'' class, and the ``desu noun sentence'' class.The ``verb sentence'' class is classified into arc,
The verbs are divided into three verb classes: general and class, and are further classified according to the inflected form of the verb as shown in the figure.

この場合、途中で名詞節を絹み入れて結び付くこともで
きる。
In this case, you can also insert a noun clause in the middle to tie it together.

このように階層構造に構成された言語モデルは、クラス
レベルのオブジェク1−により定義され、そのクラスオ
ブジェクト巾の文法ルールはルールセットに分割され記
述されている。そして、これらのクラスは上位下位関係
を持ち、ルールセットはメツセージ・ランで起動され、
さらにクラスオブジェクト内には言語解析のだめの他の
メソッドやデータを持っている。
The language model configured in a hierarchical structure in this way is defined by object 1- at the class level, and the grammar rules of the class object width are divided into rule sets and described. These classes then have a super-sub relationship, and the ruleset is triggered on a message run,
Furthermore, the class object has other methods and data for language analysis.

例えば、「動詞文」クラスの中には、第1に前バッファ
L1が名詞の時に文を生成するルール、第2に前バッフ
ァL1がnilの時に文を生成するルール、第3に文生
成終了のルールと云う3種のルールがルールセットとし
て記述されている。
For example, in the "verb sentence" class, the first rule is to generate a sentence when the previous buffer L1 is a noun, the second is the rule to generate a sentence when the previous buffer L1 is nil, and the third is to end the sentence generation. Three types of rules are described as a ruleset.

第5図は「動詞文」クラスのオブジェクトに対応するル
ールセットの記述例を示す。「@5uper Jはスロ
ットであり、[¥value Jはファセット、「文Δ
はバソユーである。スロットの“′@”は、システム定
義のスロット名であることを示し、ファセット“¥”は
システム定義のファセット名であることを示している。
FIG. 5 shows a description example of a ruleset corresponding to an object of the "verb sentence" class. "@5uper J is a slot, [\value J is a facet, "sentence Δ
is Basoyou. The slot "'@" indicates that it is a system-defined slot name, and the facet "\" indicates that it is a system-defined facet name.

第1行目のスロットSLIは、上位クラスが「文」であ
ることを示す。SL2は、コントロール情報を示し、“
’doall(ドウオール)″にょって条件を満足する
全ルールを実行すべきことを指示している。SL3は、
ルールセントの中で使用されるローカル変数リストを示
す。この“@sea:case−frame ″はロー
カル変数である。SL4は、ルールセットを呼び出すと
きの引数リストを示す。SL5は、トレース情報がかげ
られ、かつルールセットが適用されたとき、ルールの前
後状態、即ち実行前と実行後の状態を書けと云う情報を
“t”によって示している。SL6は、トレース情報を
かけるときのルール実行前に出力する変数リストを示す
。SL7はSL3と同様で、ルールセント中で使用され
る変数リストを示す。SL8は、トレース情報の出力指
令が出たとき、ルールの実行が終了した時点で指定され
た変数を書きなさいと云う情報を示す。SL9は、ルー
ルの記述例であり、ルール■は、第6図(alに示すよ
うに、左バッファLlポジションが名詞節であれば、そ
れを右バッファのカレントC位置にある動詞文の下に付
けようと云うルールである。ルール■は、第6図(ト)
)に示す如く左バッファL1になにもなければ、右バッ
ファのカレント位置Cを左へ1つシフトせよと云うルー
ルである。また、ルール■は、第6図(C)に示すよう
に動詞文終了のルールで、構文木が完成したならば出力
せよと云うルールである。
The slot SLI in the first line indicates that the upper class is "sentence". SL2 indicates control information and “
'doall' instructs that all rules that satisfy the conditions should be executed.SL3 is
Shows a list of local variables used in rule cents. This “@sea:case-frame” is a local variable. SL4 indicates an argument list when calling the ruleset. SL5 indicates by "t" information that when the trace information is hidden and the ruleset is applied, write the before and after states of the rule, that is, the states before and after execution. SL6 indicates a variable list to be output before executing a rule when applying trace information. SL7 is similar to SL3 and shows a list of variables used in the rulesent. SL8 indicates information to write the specified variable when the execution of the rule is completed when the trace information output command is issued. SL9 is an example of writing a rule, and rule ■ is, as shown in Figure 6 (al), if the left buffer Ll position is a noun clause, write it below the verb sentence at the current C position of the right buffer. This is a rule that says to attach.Rule
), if there is nothing in the left buffer L1, the rule is to shift the current position C of the right buffer one position to the left. Further, rule (2) is a rule for ending a verb sentence, as shown in FIG. 6(C), and is a rule for outputting the syntax tree when it is completed.

このようにルールは分割記述されているため、ルールの
モジュール化がなされ、その拡張が容易になっている。
Since the rules are written in parts in this way, the rules are modularized and can be easily expanded.

また、「は名詞文」クラス5 「か名詞文」クラス、「
です名詞文」クラスに共通するルールは、それらの上位
クラスである「名詞文」クラスに記述されている。従っ
て、「名詞文」クラスのルールセットには「ルール名詞
文」と云うルールあり、これは上記クラスのいずれのク
ラスにも共通した働きをする。即ち、名詞文が完成した
ならば、その結果を出力するというルールである。この
ルールでは、「は名詞文」クラス、「か名詞文」クラス
及び「です名詞文クラ」クラスにはないが、ルールのイ
ンへりタンスを利用して、」−位のクラスである「名詞
文」クラスで見つかり起動される。このため、ルールの
記述量が減ることになる。
In addition, there are also classes such as ``ha noun sentence'' class 5, ``ka noun sentence'' class, and ``ka noun sentence'' class.
Rules common to the "Noun Sentence" class are described in the "Noun Sentence" class, which is a higher class. Therefore, the rule set for the "noun sentence" class includes a rule called "rule noun sentence," which functions in common to all of the above classes. That is, the rule is that when a noun sentence is completed, the result is output. This rule does not exist in the ``ha noun sentence'' class, ``ka noun sentence'' class, and ``desu noun sentence'' class, but by using the inheritance of the rule, ” class and is invoked. Therefore, the amount of rules to be written will be reduced.

即ち、本発明に係る上記実施例によれば、クラスレベル
のオブジェクトにより言語モデルを定義し、そのクラス
内に文法ルールをルールセットに分割し記述することに
よりルールのモジュール化及びルールの拡張が容易にな
り、そしてルールのインへりタンスを利用してルールの
記述量を減らすことができる。
That is, according to the above embodiment of the present invention, a language model is defined by class-level objects, and grammar rules are divided into rule sets and described within the class, thereby making it easy to modularize and expand rules. , and the amount of rules written can be reduced by using the inheritance of the rules.

なお、第4図は入力文の意味の整合性をチェックする世
界モデルの一例を示すもので、実線が各オブジェクト間
に属性関係があることを表し、破線はオブジェクト間に
上位下位関係があることを表している。
Furthermore, Figure 4 shows an example of a world model for checking the consistency of the meaning of an input sentence.A solid line indicates that there is an attribute relationship between each object, and a broken line indicates that there is a superior-lower relationship between objects. represents.

第7図は本発明におりる言語モデルの他の実施例を示す
ものである。第3図と異なる点は、言語モデル上に「接
続カテゴリ」クラスと、「連体接続形」クラスと、「の
」クラス、「かjクラス及び「と」クラスを(=J加し
、1連体接続形」クラスの上位には「接続カテゴリ」ク
ラス、下位には「連体接続形」クラス(文と節のいずれ
も)と、1名詞節」クラスの下の「の」クラス、「か」
クラス3 「と」クラスを結び付し」た点である。
FIG. 7 shows another embodiment of the language model according to the present invention. The difference from Fig. 3 is that the language model includes the "connective category" class, the "adjunctive connective" class, the "no" class, the "kaj class, and the "to" class (=J plus, one adjunct Above the "conjunctive form" class is the "conjunction category" class, below it are the "adjunctive form" class (both sentences and clauses), and the "no" class and "ka" under the "1 noun clause" class.
Class 3 This is the point where the class is connected.

この実施例においては、文の連体形クラスや節の連体形
クラスや名詞節クラスの下位である「のjクラス、「と
」クラス、「か」クラスで共通接続ルールが「連体接続
」クラスに記述される。このため、今まで各クラス(2
つの連体形クラスや名詞節クラス)毎に記述されていた
共通の接続ルールが除去され、これらのクラスの上位ク
ラスのみに記述されたルールのインへりタンスによって
下位のものを実行でき、ルールの記述量が減らし得る。
In this example, the common connection rule is set to the "adjunctive connection" class in the "noj class,""to" class, and "ka" class, which are subordinate to the sentence adnominal class, the clause adnominal class, and the noun clause class. Described. For this reason, until now each class (2
The common connection rules that were written for each adjunct class or noun clause class have been removed, and the inheritance of rules written only for the upper class of these classes allows execution of the lower ones, and the rule description quantity can be reduced.

例えば、「私の家は」とか、「売られる家は」において
、「家は」は前の語がかかる「は名詞節」であるので、
同じ接続をする。この共通ルールは上位クラスに記述さ
れる。
For example, in ``My house is'' or ``The house being sold'', ``House is'' is a noun clause, and the previous word is used as a noun clause.
Make the same connection. This common rule is written in the upper class.

従って、第7図の実施例では、さらにルールのモジュー
ル化とルールの記述量を減らす効果がある。
Therefore, the embodiment shown in FIG. 7 has the effect of further modularizing the rules and reducing the amount of rules written.

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明によれば、クラスレベルのオ
ブジェクトにより言語モデルを階層構造にし、クラス内
に文法ルールをルールセットに分割記述したものである
から、ルールのモジュール化に伴いルールの拡張が容易
になると共に、ルールのインへりタンスを利用してルー
ルの記述量を減らし得る効果がある。
As explained above, according to the present invention, the language model is structured hierarchically using class-level objects, and the grammar rules are divided into rule sets within the class, so that the rules can be expanded as the rules become modular. This has the effect of making it easier and reducing the amount of rules to be written by using the inheritance of the rules.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の基本構成図、 第2図は本発明が適用されるデータベース検索システム
構成例を示すブロック図、 第3図は本発明に関連する言語モデルを示す図、第4図
は本発明に関連する世界モデルを示す図、第5図はオブ
ジェクト「動詞文クラス」の場合のルールセントの記述
例を示す図、 第6図は同じくルールセットを説明する図、第7図は本
発明の言語モテルの他の例を示す図である。 図中、 11は入力部、 12は単語分割処理部、 13は単語辞書、 14υ11゛世界モデル、 15は言語モデル、 16はモデリング・システム、 17は構文・意味解析部である。 特 許 出 願 人  富士通株式会社本鉋8月の幕参
右織−広図 第1図 (:l−0(J
FIG. 1 is a basic configuration diagram of the present invention, FIG. 2 is a block diagram showing an example of a database search system configuration to which the present invention is applied, FIG. 3 is a diagram showing a language model related to the present invention, and FIG. Figure 5 is a diagram showing a world model related to the present invention, Figure 5 is a diagram showing a description example of rule cents in the case of the object "verb sentence class", Figure 6 is a diagram also explaining the rule set, Figure 7 is a diagram showing the book FIG. 7 is a diagram showing another example of the language model of the invention. In the figure, 11 is an input unit, 12 is a word segmentation processing unit, 13 is a word dictionary, 14υ11゛ world model, 15 is a language model, 16 is a modeling system, and 17 is a syntactic/semantic analysis unit. Patent applicant Fujitsu Ltd. August Makusan Uori - Hirozu Figure 1 (: l-0 (J

Claims (1)

【特許請求の範囲】[Claims] 自然言語による入力文を単語辞書に従って単語に分割す
る単語分割処理部(12)、言語の意味が関連する分野
についてオブジェクト相互間の属性と上位下位関係とを
表現する世界モデル(15)によって意味解析するとと
もに、言語モデルによって構文解析を行なう構文・意味
解析部(17)を備え、上記言語モデルを上位下位関係
にあるクラスレベルのオブジェクトにより定義し、その
クラス内の文法ルールをルールセットに分割記述し、か
つそれらクラス間の上位下位関係を利用してルールのイ
ンヘリタンスを可能にしたことを特徴とする言語処理方
式。
A word division processing unit (12) that divides an input sentence in natural language into words according to a word dictionary performs semantic analysis using a world model (15) that expresses attributes and superior-lower relations between objects in fields related to the meaning of language. At the same time, it is equipped with a syntactic/semantic analysis unit (17) that performs syntactic analysis using a language model, defines the language model using class-level objects in a superior-lower relationship, and divides and describes the grammar rules within the class into rule sets. A language processing method characterized in that the inheritance of rules is made possible by using the superior-subordinate relationship between these classes.
JP61063571A 1986-03-20 1986-03-20 Natural language processing system Pending JPS62221775A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61063571A JPS62221775A (en) 1986-03-20 1986-03-20 Natural language processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61063571A JPS62221775A (en) 1986-03-20 1986-03-20 Natural language processing system

Publications (1)

Publication Number Publication Date
JPS62221775A true JPS62221775A (en) 1987-09-29

Family

ID=13233067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61063571A Pending JPS62221775A (en) 1986-03-20 1986-03-20 Natural language processing system

Country Status (1)

Country Link
JP (1) JPS62221775A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992009041A1 (en) * 1990-11-20 1992-05-29 Kabushiki Kaisha Csk Japanese sentence structure analyzing system
US7584103B2 (en) 2004-08-20 2009-09-01 Multimodal Technologies, Inc. Automated extraction of semantic content and generation of a structured document from speech
US8959102B2 (en) 2010-10-08 2015-02-17 Mmodal Ip Llc Structured searching of dynamic structured document corpuses
US9892734B2 (en) 2006-06-22 2018-02-13 Mmodal Ip Llc Automatic decision support

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992009041A1 (en) * 1990-11-20 1992-05-29 Kabushiki Kaisha Csk Japanese sentence structure analyzing system
US7584103B2 (en) 2004-08-20 2009-09-01 Multimodal Technologies, Inc. Automated extraction of semantic content and generation of a structured document from speech
US9892734B2 (en) 2006-06-22 2018-02-13 Mmodal Ip Llc Automatic decision support
US8959102B2 (en) 2010-10-08 2015-02-17 Mmodal Ip Llc Structured searching of dynamic structured document corpuses

Similar Documents

Publication Publication Date Title
Nigay et al. A generic platform for addressing the multimodal challenge
Sowa Toward the expressive power of natural language
US5555169A (en) Computer system and method for converting a conversational statement to computer command language
Liu et al. Automating transition from use-cases to class model
Michos et al. Towards an adaptive natural language interface to command languages
JPH09198237A (en) System for text edition of structural expression type computer program having on-the-fly type printing and method therefor
Bardohl GenGEd: A generic graphical editor for visual languages based on algebraic graph grammars
Burke et al. Translating formal software specifications to natural language: a grammar-based approach
Sharma et al. Automated generation of activity and sequence diagrams from natural language requirements
Kempe et al. Parallel replacement in finite state calculus
JPS62221775A (en) Natural language processing system
US8706477B1 (en) Systems and methods for lexical correspondence linguistic knowledge base creation comprising dependency trees with procedural nodes denoting execute code
Plat et al. A case for structured analysis/formal design
Krishnamurthy et al. Ease: Enabling hardware assertion synthesis from english
Arwidarasti et al. Converting an Indonesian constituency treebank to the Penn treebank format
Zhu-Tian et al. Sketch Then Generate: Providing Incremental User Feedback and Guiding LLM Code Generation through Language-Oriented Code Sketches
Waters Cliche-based program editors
Graf Diving deeper into subregular syntax
Kruijff et al. Resource-sensitivity, binding and anaphora
Boguraev A natural language toolkit: Reconciling theory with practice
Kulkarni Later Nyāya Logic: Computational Aspects
Lehnert Learning to integrate syntax and semantics
Sibert et al. Some thoughts on the interface between user interface management systems and application software
JPS62221776A (en) Natural language processing system
Huang et al. PROVERB: Verbalizing Proofs