JPH0367367A - Document answering method - Google Patents

Document answering method

Info

Publication number
JPH0367367A
JPH0367367A JP2002862A JP286290A JPH0367367A JP H0367367 A JPH0367367 A JP H0367367A JP 2002862 A JP2002862 A JP 2002862A JP 286290 A JP286290 A JP 286290A JP H0367367 A JPH0367367 A JP H0367367A
Authority
JP
Japan
Prior art keywords
thesis
sentence
sentences
group
statement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002862A
Other languages
Japanese (ja)
Inventor
Toyohiro Kobayashi
豊博 小林
Akihiko Naito
明彦 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2002862A priority Critical patent/JPH0367367A/en
Publication of JPH0367367A publication Critical patent/JPH0367367A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To simplify the constitution and reduce its size by storing a group argument point sentence obtained by converting a document, retrieving a new argument point sentence according to the storage contents, and performing similar retrieval by using a conversion area when the retrieval result is not an answer sentence. CONSTITUTION:The input document is converted into argument point sentences through a RAM B for conversion under process control by a microcomputer and the group of the argument point sentence is stored in a RAM A. The microprocessor retrieves the new argument point sentence in the argument point sentence group and when it is decided that the new argument point sentence describes the fact, it is outputted as an answer sentence. When the sentence is not the answer, plural argument point sentences are stored hierachically from the RAM B for conversion and the RAM A and when there are plural argument point sentences in the same layer, similar processing is performed with the individual argument point sentences; and the layer of the argument point sentence which becomes the answer is tracked back and opened and this free area is utilized similarly. Therefore, the document answering method of simple, small-sized constitution is obtained by using a combination of the small- capacity storage part and microcomputer.

Description

【発明の詳細な説明】 本発明は例えばパーソナルコンピュータ、又はマイクロ
コンピュータシステム上で稼動する文章入力1文章応答
システムを人工知能的プログラム手法を用い提供するも
のである。本発明は前記文章応答が9人間が一般的に用
いている自然言語そのままの入力、出力により、システ
ム内部に入力された文章データと対話できることを目的
としたものである。
DETAILED DESCRIPTION OF THE INVENTION The present invention provides a text input/sentence response system that operates on, for example, a personal computer or a microcomputer system using an artificial intelligence programming technique. The object of the present invention is to enable interaction with text data input into the system by inputting and outputting the text responses in natural language commonly used by humans.

本発明例で説明する文章応答の発明の要件は。What are the requirements for the text response invention explained in this invention example?

従来この分野で研究されてきた大型コンピュータシステ
ムによる手法とは異なり、非常に小型な例えばパーソナ
ルコンピュータ等、記憶空間の非常に小さく、かつ情報
処理容量の非常に小さなコンピュータシステムのプログ
ラムでも強力な文章応答出力を得られる様1本発明の構
成において記憶装置上の記憶空間の配置、プログラム構
成9同路構成を工夫したものである。
Unlike the methods using large computer systems that have been studied in this field, it is possible to produce powerful text responses even in programs running on very small computer systems, such as personal computers, with very small storage space and information processing capacity. In order to obtain output, the arrangement of the storage space on the storage device, the program structure, and the same path structure are devised in the structure of the present invention.

従来、この種のものとして1文章を一方的に記憶された
情報のみ出力する様なシステム、例えばオーディオテー
プにデジタル信号をあらかじめ。
Conventionally, this kind of system has been used to unilaterally output only the information stored in one sentence, for example, by pre-recording a digital signal on an audio tape.

文章に対応して記憶させておき、その部分を単に検索し
て必要情報1例えば、学習システムとして解答情報を出
力する様なものの例はある。
There are examples of systems that store information corresponding to a sentence, simply search for that part, and output necessary information 1, for example, answer information as a learning system.

又1文章作成電子装置9例えば日本語ワードプロセッサ
ーシステム等も単にカタカナ等の入力を漢字等に変換し
て文章を出力表示し1文章中の誤字等に対し9文字の挿
入又は削除する程度の機能でしか今は実現されていない
Furthermore, the electronic device 9 for creating sentences 9, such as a Japanese word processor system, simply converts input such as katakana into kanji, outputs and displays the sentence, and inserts or deletes 9 characters in response to typos in a sentence. However, it has not yet been realized.

前記学習システム、ワードプロセッサー等両者共単にあ
らかじめ記憶されている文章の検索又は変更して出力す
るだけの機能しかない。
The learning system, word processor, etc. both have the function of simply searching for or changing pre-stored sentences and outputting them.

本発明は上述した従来のものと異なり、入力された文章
又はあらかじめ記憶された文章群に対し質問文章の入力
を得ると、前記文章群を文章の意味に対応した論旨に分
解し、解答として論理的に成り立つ文章を前記論旨より
推論し、再形成して出力表示、告知するものを提供する
ものであり。
The present invention differs from the above-mentioned conventional methods in that when a question sentence is input for an input sentence or a group of sentences stored in advance, the group of sentences is broken down into thesis corresponding to the meaning of the sentence, and the answer is logically determined. It provides a system that infers a sentence that holds true based on the above-mentioned thesis, reshapes it, outputs it, and makes an announcement.

以下複数の単語列で何らかの意味を現わすものもここで
は文章と考えて、説明を進める。本発明の目的は下記の
通りである。
Below, we will proceed with the explanation by considering anything that expresses some meaning as a string of words to be a sentence. The objects of the present invention are as follows.

1) 言語学習機等として2文章群を入力し、意味的に
同一的な文章の自動形成を出力し1文章の作文の学習に
使用する。
1) As a language learning machine, it inputs two groups of sentences, outputs automatically formed sentences that are semantically the same, and uses it to learn how to compose a single sentence.

2) 企業内で発生するさまざまな情報1例えば複数人
の会議スケジュール行動等を自然言語で入力し同じく自
然言語入力で質問してスケジュール行動内容の文章を出
力させる。
2) Various information generated within the company (1), such as the meeting schedule behavior of multiple people, is input in natural language, questions are asked using natural language input, and text about the schedule behavior is output.

この場合特定の行動をする人物のみを指定して自然言語
で出力させられる。
In this case, you can specify only the person who takes a specific action and output it in natural language.

3) データベースプログラム、データベースシステム
に、プログラム的、ソフト的に連結して使用することに
より、従来、データベース情報内の単語、単位でしか取
り出せなかった情報を、質問文人力の意味から論理解析
し推論して論理的に意味もつ広い内容の単語2文章デー
タを出力させることが出来る。
3) By connecting to a database program or database system in a programmatic or software manner, information that could previously only be retrieved in terms of words or units within the database information can be logically analyzed and inferred from the meaning of the question writer's ability. It is possible to output two-word sentence data with a wide range of logical meaning.

例えば「A氏は東京へ10日に行く。」 「3氏は大阪
へ10日に行く。J  rC氏は東京へ11日に行く。
For example, ``Mr. A will go to Tokyo on the 10th.'' ``Mr. 3 will go to Osaka on the 10th. Mr. J rC will go to Tokyo on the 11th.''

」、「東京なら日本の首部だ。」・・・・・・と入力さ
れているとする。
”, “If it is Tokyo, it is the head of Japan”, etc. are input.

次に質問として、「誰が日本の首部へ10日に行くか。The next question was, ``Who will go to the head of Japan on the 10th?

」と入力した時でも、「東京へ10日に行くのは誰か」
と入力した時でもまったく同じ意味の答として例えば前
者は「A氏が日本の首部へ10日に行く。」、後者は「
東京へ10日にA氏が行く。」と出力表示させられる。
Even when you enter "Who is going to Tokyo on the 10th?"
For example, when inputting ``Mr.
Mr. A will go to Tokyo on the 10th. " is displayed in the output.

これは今までのデータベース検索システムでは実現困難
なものであった。これを実現して概存のデータベースの
さらに有効なる活用を図れる。
This has been difficult to achieve with conventional database search systems. By realizing this, the existing database can be utilized more effectively.

本発明の一実施例の構成と作用を第1〜第14図を用い
て以下説明する。
The structure and operation of one embodiment of the present invention will be explained below using FIGS. 1 to 14.

第1図は本発明の概要構成を示し、第2図はそのブロッ
ク回路図である。本発明は例えば8又は16ビツト等の
マイクロプロセッサ−(7)と2例えば256にバイト
あるいはそれ以下のワーキングエリアの記録容量をもつ
例えばパーソナルコンピュータ又はワープロ等の電子装
置(1)に1例えばステップ(2)で日本語入出カプロ
グラムの起動を行なう。なお、言語は日本語とは限らず
、英。
FIG. 1 shows a schematic configuration of the present invention, and FIG. 2 is a block circuit diagram thereof. The present invention provides an electronic device (1) such as a personal computer or word processor having a microprocessor (7), e.g. 8 or 16 bits, and a working area storage capacity of e.g. 256 bytes or less. 2) Start the Japanese input/output program. Please note that the language is not limited to Japanese, but English.

独語でも本発明は有効であるが、以下日本語を自然語と
して使用し説明する。
Although the present invention is also effective in German, the following explanation uses Japanese as a natural language.

次にステップ(3)で本発明の主たる要素である文章応
答プログラムの起動を行なう。プログラムが起動すると
、ステップ(4)で複数の文章を入力する。これはあら
かじめ知識情報として本装置(1)に例えばキーボード
(6)等より与えるもので。
Next, in step (3), the text response program, which is the main element of the present invention, is activated. When the program starts, multiple sentences are input in step (4). This is given in advance to the device (1) from, for example, the keyboard (6) as knowledge information.

例えば外部記憶手段フロッピーディスク(5)等から与
えられることもある。
For example, it may be provided from an external storage means such as a floppy disk (5).

次に質問文章入力ステップ(8)を行なうと、以下に説
明する構成と作用により、ステップ(9)で文章による
解答文章出力を行なう。この場合出力としてCRT (
10)に文章表示する例を示している以下実際的な文章
応答の一例として、小学校生徒程度の国語の論理の作文
学習の例をもとに説明する。
Next, when the question text input step (8) is performed, an answer text in the form of text is output in step (9) according to the configuration and operation described below. In this case, the output is CRT (
10) shows an example of displaying sentences.As an example of a practical sentence response, an example of Japanese logic composition learning for elementary school students will be explained below.

第3図において1例えばCRT (10)にキーボード
(6)より入力され表示されている如き薗に示すような
文章群(31) 、 (32)を入力させる。文章群中
、「ライオンはは乳動物だ。」等の文章群(31)は主
格部と述部が一対一に対応する事実文であり、「動物な
ら生物だ。」等′の文章群(32)は推論を導く為に必
要な条件文であり1文章群(32)は「なら」 「たっ
たら」等後述する条件語辞書(106)に記憶されてい
る言葉で接続されている特徴がある。図中(33)はC
RTの表示カーソルである。
In FIG. 3, for example, a group of sentences (31) and (32) as shown in the screen are entered into the CRT (10) using the keyboard (6) and displayed. Among the sentence groups, the sentence group (31) such as ``A lion is a mammal.'' is a factual sentence with a one-to-one correspondence between the nominative part and the predicate, and the sentence group ``If it is an animal, it is a living thing.'' etc. 32) are conditional sentences necessary to draw inferences, and one sentence group (32) has features connected by words stored in the conditional word dictionary (106), which will be described later, such as "nara" and "tatara". be. (33) in the diagram is C
This is the RT display cursor.

次に質問文について説明する。第4図は、第3図の文章
群(31)、 (32)が入力された後に入力する質問
文を示すものであり、質問文(34)は「何が友達です
か。」と入力されたことを示している。本質問により以
下第6図より説明する手法構成により、質問に対する意
味的解答を文章群(31) (321より再構成形成し
て第5図に示すような解答応答文章(351,例えば「
ペンギンは友達です。」 「ゾウが友達である」をCR
T (101に出力表示する。この場合出力はCRT 
[101のみにとどまらず、音声文章出力、又は文章に
対応した行動を出力する。
Next, the question text will be explained. Figure 4 shows the question text that is input after the sentence groups (31) and (32) in Figure 3 are input, and the question text (34) is ``What are your friends?'' It shows that For this question, the semantic answer to the question is reconstructed from a group of sentences (31) (321) using the method structure explained below with reference to FIG.
Penguins are friends. ” CR for “Elephants are friends”
T (output is displayed on 101. In this case, the output is CRT
[Not limited to 101, output audio sentences or actions corresponding to the sentences.

例えばロボットの動作駆動信号と連結することち可能で
ある。
For example, it is possible to connect it to a robot motion drive signal.

さらに入力文章群(31)〜(32)等も、キーボード
入力にとどまらず、各種な入力9例えば音声認識入力装
置等が接続される場合もありうる。
Furthermore, input text groups (31) to (32), etc. are not limited to keyboard input, and various inputs 9 such as voice recognition input devices may be connected.

第14図は本発明の他の実施例による出力手段として、
可動部駆動する例を示している。即ち、第14図の他の
実施例は1本発明の構成要素である電子装置(1)に外
部インターフェース(2011,例えばR5232C等
共通バスでデータ接続されており、 +2011は例え
ばライオン、ペンギン等の絵がかれたデスプレイ(20
2)上にそれぞれに対応するランプ(2031(204
) (2051がインターフェース(201)と電気的
に接続されているものである。従って、この例では、解
答文章出力ステップ(9)時に回答応答文章(35)と
しての「ペンギンは友達です。」、「ゾウが友達である
。」の解答論旨のペンギン、ゾウの単語データを抽出し
、出力インターフェースを起動してペンギンを示すラン
プ(204)、ゾウを示すランプ(205)を点灯させ
る。この場合前述の音声発生によりゾウ、ペンギンの鳴
き声を出力しても良い。この様にして1例えば幼児の国
語学習等において1文章作成した文章群から論理解析し
て新たな意味文を作成し、対象実像をデスプレイ上で示
すことにより、多大な学習効果と言葉1文章作文との臨
場感を味わえる等教育上非常に大きな役割を得ることが
できる。
FIG. 14 shows output means according to another embodiment of the present invention.
An example of driving a movable part is shown. That is, in the other embodiment shown in FIG. 14, data is connected to the electronic device (1), which is a component of the present invention, by an external interface (2011, for example, a common bus such as R5232C, and +2011 is for example a lion, a penguin, etc.). Painted display (20
2) The corresponding lamps (2031 (204)
) (2051 is electrically connected to the interface (201). Therefore, in this example, "Penguins are friends." is used as the answer response text (35) at the answer text output step (9). Extract the word data of penguin and elephant from the answer essay "Elephants are friends," start the output interface, and light up the penguin lamp (204) and the elephant lamp (205).In this case, as described above It is also possible to output the sounds of elephants and penguins by generating the sounds of By showing it on a display, it can play a very important role in education, such as having a great learning effect and allowing you to experience the realism of writing a single word sentence.

以後第6図より本発明の一実施例の文章処理。Hereinafter, FIG. 6 shows text processing according to an embodiment of the present invention.

推論、詳しい処理の手法を説明する。Inference and detailed processing methods will be explained.

第6図は、入力された自然言語の文章(101) 。FIG. 6 shows an input natural language sentence (101).

例えば「おとなしくて、生物ならやっばり友達だ。」と
いう文章から、論旨となる主要部分を抽出する手段を説
明するものである。
For example, it explains how to extract the main argument from a sentence such as ``If it's a quiet creature, it's definitely a friend.''

入力文章(101)は、「やっばり」、「どうやら」、
「きっと」・・・等の論旨と関係ない事が明らかな言葉
が予め記憶された辞書である切除語辞書(102)の言
葉に対応したキャラクタ−デジタルデータと1文字列の
キャラクタ−デジタルデータが比較される事により、そ
の文字列が削除される。
The input sentences (101) are "yabari", "apparently",
The character-digital data and the character string of one character-digital data corresponding to the words of the Excision Word Dictionary (102), which is a dictionary in which words that are clearly unrelated to the purpose of the argument, such as "I bet", are stored in advance. By comparing, the string is deleted.

また、質問文であれば普通当然持っているべき語尾(例
えば「〜か。」 「〜?」「〜っけ」等)を辞書内容と
して予め記憶された質問文語尾辞書(104)中の言葉
のデジタルデータと入力文章の語尾の文字列のデジタル
データが比較され、一致する場合、それを削除した上で
、以下この文を質問文として処理する。また1通常文な
ら持っているであろう語尾(例えば「〜だ。」、「〜で
ある。」・・・)を内容として予め記憶された通常文語
尾辞書(103)と、入力文章の語尾の比較を行う事に
より、それを削除し、以下この文章を通常文として扱う
ように出来る。
In addition, the words in the question sentence ending dictionary (104) are stored in advance as dictionary contents, including endings that a question sentence should normally have (for example, "~ka.", "~?", "~kke", etc.). The digital data of the input sentence and the digital data of the character string at the end of the input sentence are compared, and if they match, it is deleted and the sentence is processed as a question sentence. In addition, there is a regular sentence ending dictionary (103) that stores in advance the endings that normal sentences would have (for example, "~da.", "~ deru.", etc.), and the endings of input sentences. By comparing , you can delete it and treat this sentence as a normal sentence from now on.

以上の各辞書(1021(1031(104)を入力文
に作用させる事で、入力文は「おとなしくて、生物なら
友達」という文章に変換される。
By applying each of the above dictionaries (1021 (1031 (104)) to the input sentence, the input sentence is converted into the sentence ``If you are a quiet creature, you are my friend.''

このように変換された変換文章(105)から1次に、
「論述すべき結論(甲)と、それを導く為に論述する文
章(乙)をつなぐ役割を持つ言葉」(以下条件語と呼ぶ
1例えば「なら」、「ならば」、「だったら」・・・等
)を内容として予め記憶された辞書、すなわち条件語辞
書(106)中の言葉を比較・検知する。条件語辞書(
106)に登録されている言葉が検知されれば、その言
葉(この例では、「なら」)を中心に入力文を区分し、
前の部分(「おとなしくて、生物」)は乙(1101で
あり、後は甲(1091であるとして取り扱う。検知さ
れなければ、入力文全体が甲であり、かつ前の部分であ
るとして処理する。
From the converted sentence (105) converted in this way, first,
"Words that have the role of connecting the conclusion to be discussed (A) and the sentence to be discussed to derive it (B)" (hereinafter referred to as conditional words). For example, "Nara", "Nara", "Dara", ..., etc.) in a dictionary stored in advance, that is, a conditional word dictionary (106). Conditional word dictionary (
If a word registered in 106) is detected, the input sentence is divided around that word (in this example, "nara"),
The first part (``a quiet creature'') is treated as B (1101), and the second part is treated as A (1091).If not detected, the entire input sentence is treated as A and the previous part. .

また、上記、前の部分に複文辞書(107)  (その
内容は例えば「〜で、」「〜くて、」「〜のに」・・・
等の文と文を結合する役割をになう言葉)を作用させる
ことで、上記乙タイプの文章がいくつつながっているか
(G個)を検知し区分し、G個という計数を記憶し、以
下の処理で推論を制御する有効な情報として活用するこ
とが可能となる。
Also, in the previous part above, there is a compound sentence dictionary (107) (its contents are, for example, "~de,""~kute,""~noni"...
By using a word that plays the role of connecting sentences such as , etc., it is possible to detect and classify how many sentences of the above B type are connected (G pieces), memorize the count of G pieces, and write the following. It becomes possible to utilize this information as effective information to control inference through processing.

更に、上記前の部分及び後の部分にそれぞれ(格)助詞
辞書(1081(内容は「は」 「が」「だって」 「
も」等の助詞的役割をもつ言葉)を作用させる。 (日
本語の場合の比較手段の一実例として順次文字列比較を
行うなら文字列の後ろから順次比較してゆくのが望まし
い。) 辞書(1081中の言葉が検知されれば、それを中心に
また前と後に区分し、前が主部、後が述部として取り扱
われる。
Furthermore, the (case) particle dictionary (1081 (contents are ``ha'', ``ga'', ``datte'', ``datte'',
(words with a particle role such as "also") are used. (As an example of a comparison method in the case of Japanese, if you want to compare strings sequentially, it is preferable to compare them sequentially from the end of the string.) Dictionary (If a word in 1081 is detected, use it as the center. It is also divided into a front and a back, with the front being treated as the subject and the back being treated as the predicate.

本例では、主部と述部を−語いとして取り扱っているが
、主部及び述部について、さらに複数回必要に応じて助
詞辞書その2 (「を」 「に」 「へ」 「から」 
「の」等を内容として持つ)を作用させる事でより複雑
な文章を要旨文に分解し、また入力文がどのような助詞
出現のパターンを持っていた文であるかの識別が可能と
なり、その情報を以下の論理展開で有効に活用する事が
できる。
In this example, the subject and predicate are treated as -words, but the subject and predicate can be used multiple times as needed ("wo", "ni", "he", "kara")
It is possible to break down a more complex sentence into a gist sentence by using the ``no'' etc.), and also to identify what pattern of particle appearance the input sentence has. This information can be effectively utilized through the following logical development.

さて、助詞辞書(108)中の言葉が検知されなければ
、システムは主部が省略されていると認知し、複文の最
初の論述で乙の出てくる文章(本例はこの場合にあたる
)の場合は、システムが自動的にrXJ等の主部省略を
示す特殊な主部(112)を補う。複文の最初の論述で
乙の出てこない文章(例えば、「馬鹿で、珂呆だよ。」
)の場合は「それ」等という代名詞を補う。また、複文
の2番目以降の文の場合は、1つ前の論述の主語を主語
として補うという動作を行う。
Now, if the word in the particle dictionary (108) is not detected, the system recognizes that the subject has been omitted, and the sentence in which ``O'' appears in the first argument of a complex sentence (this is the case in this example). In this case, the system automatically supplements a special main part (112) indicating main part omission such as rXJ. Sentences in which ``O'' does not appear in the first argument of a complex sentence (for example, ``You're an idiot and an idiot.''
), supplement it with a pronoun such as "it". Furthermore, in the case of the second and subsequent sentences in a complex sentence, the subject of the previous statement is supplemented as the subject.

このような手段を用いることにより1人力文は、以下の
論理展開に必要な論旨文の群(1111へと分解される
By using such a means, a single-person sentence is decomposed into a group (1111) of thesis sentences necessary for the following logical development.

上記の様に、各々別個の複数辞書を持った理由は1日本
語の特性上9例えば9語尾に特有なフレーズは論旨の語
尾にしか現れないとか、あるいは「やっばり」等の切除
語は文中のあらゆるところに表れる可能性があるが論理
展開には影響をおよぼさないフレーズとかの性格の違い
でクラスター分けでき9機能実現手段として別個に持つ
方が効率良い事が予想される故である。
As mentioned above, the reason for having separate multiple dictionaries is 1 due to the characteristics of Japanese9. For example, phrases that are unique to the 9th ending only appear at the end of the argument, or excision words such as ``yabbari'' are not included in the sentence. This is because it is expected that it would be more efficient to cluster them based on differences in character, such as phrases that may appear anywhere in the world but do not affect logical development, and have them separately as a means of realizing the 9 functions. .

また、従来のワープロ等の辞書はほとんどが例えば「動
物」あるいは「今日」等のいわゆる語幹の方を内容とし
て持っているが1本発明はその逆に語幹とならないフレ
ーズを辞書として持ち、有効に処理に応用しようとする
ものである。その理由は9日本語はその特性上、何らか
のイメージや行動や概念と対応している語幹を、助詞を
代表とする一種のオペレータで結び付けてゆき、最後に
文章全体を性格付ける語尾を付けて一文章が構成されて
ゆくタイプの言語であり、助詞等を代表とするいわゆる
付属語が文章の論理を左右する働きをになっているから
である。
Furthermore, most of the dictionaries for conventional word processors have phrases that contain so-called stem words, such as ``animal'' or ``today,'' but the present invention, on the contrary, has phrases that are not stem words as a dictionary, and can be used effectively. It is intended to be applied to processing. The reason for this is 9. Due to its characteristics, the Japanese language uses a type of operator, typically a particle, to connect word stems that correspond to some kind of image, action, or concept, and then finally adds a ending that characterizes the entire sentence. This is because it is a type of language in which sentences are constructed, and so-called adjuncts, typically particles, play a role in influencing the logic of sentences.

さて、第6図の2)は質問文(1131入力の例である
Now, 2) in Fig. 6 is an example of a question (1131 inputs).

2)の例の場合ち、第6図の1)と同じ処理手段を通す
事により、この場合は「〜か」という語尾を検知して質
問文であると認識され、質問文を示す丙(116)のタ
イプであるとして甲や乙とは別の位置に記憶される。
In the case of example 2), by passing it through the same processing means as in 1) in Figure 6, in this case, the ending of the word "~ka" is detected and recognized as a question sentence, and the ``C'' which indicates a question sentence is detected. 116) and is stored in a different location from A and B.

また、質問文の場合1例えば「何(が)」とか「誰(が
)」とかの独特のフレーズが現れる。これらは以下の処
理では、何=どんな言葉が入って6よい、誰=どんな言
葉が入ってもよいが人間以外の場合は偏入化した感じの
ニュアンスとなるという手続きを表明した言葉であると
して処理される。これも自然な日本語処理には不可欠の
処理である。
In addition, in the case of question sentences, unique phrases such as ``what'' and ``who'' appear. In the following processing, these words express the procedure that what = any word can be included, and who = any word can be included, but in the case of non-humans, the nuance will be biased. It is processed. This is also an essential process for natural Japanese processing.

このようにして、入力された文章は、論旨のみを核とす
る論旨文に分解され、各々、処理の制御に必要な情報と
ともに記憶格納される訳である。
In this way, the input text is decomposed into thesis sentences with only the thesis as the core, and each sentence is stored together with information necessary for controlling the process.

そこで、第7図として、第3図の文章入力−実例が分解
されて論旨文と成った結果の一部を示す。
Therefore, FIG. 7 shows a part of the result of the text input example shown in FIG. 3 being decomposed into a thesis statement.

第3図の「ライオンはは乳動物だ。〜。ゾウもやっばり
おとなしいのである。は乳動物なら生物ですよ。〜。お
となしくて生物ならやっばり友達だ。」という文章が1
文章の個数をカウントした文番号(120)及び乙のタ
イプの論旨(123)の有無および個数を示す情報(1
221(例えば、第7図の文番号lの「ライオンは〜」
なら”0”(124) 、文番号11の「おとなしくて
、〜」なら”2”(126))とともに論旨文の甲と乙
が(条件の数が1以上の場合)ポインタを介して、各々
記憶・格納されている。
In Figure 3, the sentence ``Lions are mammals. Elephants are also very docile.If they are mammals, then they are living things.
Sentence number (120) that counts the number of sentences and information indicating the presence or absence and number of Otsu type thesis (123) (1
221 (For example, “The lion is ~” in sentence number l in Figure 7)
``0'' (124) for sentence number 11, ``2'' (126) for sentence number 11, ``Be quiet,...''), and the thesis statement A and B (if the number of conditions is 1 or more) are each Memorized and stored.

そこで1本発明の機能の核である論理展開処理を実現す
る手段として、これらの情報を具体的に電子装置のメモ
リ上にいかに割り付け、またいかに具体的処理手段をほ
どこすかに関して、以下。
Therefore, as a means for realizing logical expansion processing, which is the core of the function of the present invention, the following describes how to specifically allocate this information in the memory of an electronic device and how to apply specific processing means.

述べてゆくものである。This is what I will explain.

第8図は論旨及び必要情報の記憶配置及びその内容の一
実施例を示す図であり。
FIG. 8 is a diagram showing an example of the storage arrangement of the thesis and necessary information and its contents.

RAM  Aは入力文章の論旨及び必要情報の配置の一
実施例を示す図。
RAM A is a diagram showing an example of arrangement of the gist of an input text and necessary information.

RAM  Bは第1.第2のポインタ及び新たに変換さ
れた論旨9文番号の記憶配置の一実施例を示す図である
RAM B is the first. FIG. 9 is a diagram showing an example of the storage arrangement of the second pointer and the newly converted thesis statement number.

第8図に示すように1本機能を実現する手段として1機
能的に異ったRAM  A及びRAM  Bの2つの記
憶手段を持つ。この場合、RAMAはあらかじめ情報を
書き込んだROIJでも、又、インターフェースを介し
て種々の外部記憶装置上に同等の記憶として保持しても
機能・手段としては同等である。
As shown in FIG. 8, two storage means, RAM A and RAM B, which are functionally different, are provided as means for realizing one function. In this case, the RAM has the same functions and means even if it is an ROIJ in which information is written in advance, or whether it is held as an equivalent memory on various external storage devices via an interface.

すなわち、RAMAは、入力された文章の論旨文及び必
要情報を割り付け、記憶する機能を実現する手段であり
、 RAM  B&iRAM  A中の情報を用いて文
章相互の論理展開を行う機能を実現する手段を具体的に
進めるための記憶割り付は手段を示すものである。
In other words, RAMA is a means to realize the function of allocating and storing the thesis statement and necessary information of the input text, and a means to realize the function of logically developing the texts using the information in RAM B & iRAM A. The memory allocation for concrete progress shows the means.

それでは、第8図に従って、まずRAM  Aに関して
、一実施例を解説する。
Now, referring to FIG. 8, one embodiment of RAM A will be explained first.

RAM  ^は、甲(第7図121 ) 、乙(第7図
123)及び丙(第6図116 )に各々対応する3つ
のエリアを持つ(第8図、 139,140.141 
)ものである。
The RAM ^ has three areas (Fig. 8, 139, 140, 141) corresponding to A (Fig. 7, 121), O (Fig. 7, 123), and C (Fig. 6, 116), respectively.
) is a thing.

甲は文番号(第7図120)と対応するアドレスADD
 (131)別に、各々1文番号(130) 、論旨文
(132)9条件乙の数(以下Gと呼ぶ) (133)
 、及びGが1以上の場合、乙のアドレスを示すポイン
タ(134)で構成される。
A is the address ADD corresponding to the sentence number (Figure 7 120)
(131) Separately, 1 sentence number (130), thesis statement (132), and the number of 9 conditions (hereinafter referred to as G) (133)
, and if G is 1 or more, it is composed of a pointer (134) indicating the address of Party B.

(135)は、乙のアドレスを示すポインタ(134)
が乙のアドレスを示している状態を図示した線である。
(135) is a pointer (134) indicating Party B's address
This is a line illustrating a state in which "B" indicates the address of Party B.

また、第8図の乙(140)は、各々、乙の一輪旨文に
対するアドレスADD乙(1361に割りふられた論旨
の群で構成され、上記(134)がこれら乙の対応する
ADD乙を指す事により、甲と結びつけられているもの
である。
In addition, Otsu (140) in Figure 8 is composed of a group of arguments assigned to the address ADD Otsu (1361) for each of Otsu's single purports, and the above (134) indicates the corresponding ADD Otsu of these Otsu. By pointing, it is connected to the instep.

また、丙(1411すなわち質問文論旨は、乙と同様に
論旨文又はその群でか記憶され、甲及び乙と別のアドレ
スに記憶される。
In addition, C (1411, that is, the question essay) is stored as a thesis statement or a group thereof, similar to B, and is stored at a different address from A and B.

実施例中、第8図のRAM  Aのある部分が1例えば
「おとなしくて、生物ならやっばり友達だ。」という文
章なら、前記手段を通り1文番号10.甲の論旨文とし
てr FXJ 、友達」、乙の文の個数(G)として2
.ポインタはADD乙を指し、そのへ〇〇乙は、Gが2
であるから、 ADD乙とADD乙+1のr IrXJ
 、おとなしい」及びr 1rXJ 、生物」の論旨文
で構成されるという例を示すものである。
In the example, if a part of RAM A in FIG. 8 is 1, for example, if it is a sentence such as ``I am a quiet creature, I would definitely be friends with it.'' It passes through the above method and becomes 1 sentence number 10. A's thesis statement is r FXJ, Friend', and B's number of sentences (G) is 2.
.. The pointer points to ADD B, and to that point, G is 2
Therefore, ADD Otsu and ADD Otsu+1 r IrXJ
, docile'' and r 1rXJ , organism''.

次に第8図中、RAM  Bに関して説明する。Next, RAM B in FIG. 8 will be explained.

RAM  Bは、論理展開機能を実現する手段として。RAM B is used as a means to implement the logical expansion function.

3つのエリア丁q及びPT及びNを有する点を特徴とす
る。
It is characterized by having three areas Dq, PT and N.

まず、エリアTQ(142)は、アドレスとして例えば
TQI−TQx〜のように割り振られて、各々のアドレ
スの中味として、以下のフローで詳述する様に「一致し
た甲の論旨文の文番号創〜m、 (1451Jを記憶す
る領域と、「内部で新たに変換生成された論旨文J (
146)を記憶する領域を持つものである。
First, the area TQ (142) is allocated as an address, for example, TQI-TQx~, and the content of each address is "Sentence number creation of the matching thesis statement" as detailed in the flow below. ~m, (1451J area for storing thesis statement newly converted and generated internally
146).

また、エリアPT (143)は、内容として上記アド
レスTQxを持つような第1のポインタ(147)を格
納するエリアであり、以下のフローでその個数及び割り
付は方、内容の変換手段を説明するが、各々 PT、〜
PTADD〜(143)  というアドレスを割り振ら
れた1個以上の記憶場所を有する点を特徴とする。
Furthermore, area PT (143) is an area for storing the first pointer (147) having the above address TQx as its contents, and the number and allocation method and means of converting the contents will be explained in the flow below. However, each PT, ~
It is characterized by having one or more storage locations assigned addresses PTADD~(143).

更にRAM  Bでは9以上に加えて第1のポインタの
記憶位置のアドレスprAoゎ(=N)を内容として持
つ第2のポインタ(144)の記憶領域がある。
Further, in RAM B, in addition to nine or more areas, there is a storage area for a second pointer (144) whose content is the address prAoゎ (=N) of the storage location of the first pointer.

(148)は、その内容がPTAn。(=N)を指して
いる状態を表す線である。
The content of (148) is PTAn. This is a line representing a state pointing to (=N).

これら、 RAM  A、B以外に作業用、及び解答出
力用の記憶テーブルが以下の処理で必要となるが。
In addition to these RAMs A and B, storage tables for work and answer output are required for the following processing.

図示をしなくとも充分理解できるので、それらは図示を
はふいた。この記憶テーブルの機能9作用は、以下のフ
ローの中でふれる。
They are omitted because they can be fully understood without illustrations. Function 9 of this memory table will be discussed in the flow below.

RAM  Bの第8図に示された論旨文の例(146)
は9本実施例の場合の、ある時点の記憶内容(手続きは
、後述)を示す例である。
Example of thesis statement shown in Figure 8 of RAM B (146)
9 is an example showing the stored contents at a certain point in time (the procedure will be described later) in this embodiment.

本実施例では、RAMBは単数であるが、RAMBをB
l−BNのごとく複数有し、各々を通信手段(例えば、
IBM製の型名3270型端末機)を有した独立のCP
Uで制御する場合も本発明の容易なる拡彊の1つである
In this embodiment, RAMB is singular, but RAMB is
There are multiple L-BNs, each with a communication means (e.g.
An independent CP with an IBM model 3270 terminal
Controlling by U is also one of the easy extensions of the present invention.

それでは、以下、第9〜12図に従って1本機能の具体
的実現手段をフローチャートによって詳述する。
Hereinafter, specific means for realizing one function will be explained in detail using flowcharts according to FIGS. 9 to 12.

以下の機能実現手段は、第8図RAM  Hの割り付は
方、論理展開手段を具体的に電子装置の上でいかに実現
するかを示すものである。
The following functional implementation means specifically shows how the RAM H allocation shown in FIG. 8 and the logic expansion means are implemented on the electronic device.

前記した様に、RAMAの割りっけが完了してから、こ
の第9〜12図の手続きが起動されるものである。(1
511 本実施例では例示しなかったが第9〜12図の処理の途
中あるいは終了時に、RAMAの内容を変更、削除、追
加する処理は2本手続きに容易に付加する事の出来るも
のであり、そうする事で1本例より複雑な論理展開が可
能となるものである。
As described above, the procedures shown in FIGS. 9 to 12 are started after RAM allocation is completed. (1
511 Although not illustrated in this embodiment, processing for changing, deleting, or adding the contents of RAMA during or at the end of the processing shown in Figs. 9 to 12 can be easily added to the two procedures. By doing so, it becomes possible to develop logic that is more complex than the one example.

さて、ステップ(151)からスタートすると、ステッ
プf1521において、まず、RAMBの第2のポイン
タ(内容をNとする) (1441に、初期値をセット
する。通常は初期値1が望ましい。
Now, starting from step (151), in step f1521, first, an initial value is set in the second pointer (contents are N) (1441) of RAMB. Normally, the initial value 1 is desirable.

また、ポインタの最大値を記録する変数HP及び第1の
ポインタ(143)の内容に初期値としゼロをセットす
る。
Further, the contents of the variable HP that records the maximum value of the pointer and the first pointer (143) are set to zero as initial values.

そうしてから、ステップ(1531でRAM  Aの質
問論旨文(丙) (138)をエリアTQ(142)の
うちアドレスTQIの記憶位置にロードする。
After that, in step (1531), the question thesis statement (C) (138) of RAM A is loaded into the storage location of address TQI in area TQ (142).

ここまでは、l質問入力文に対して1回行われる。以下
の処理は、質問文の内容に応じて、必要回(具体的手段
は以下示す)繰り返し行われるものである。
The steps up to this point are performed once for each question input sentence. The following process is repeated as many times as necessary (specific means will be shown below) depending on the content of the question text.

さて、ステップ(253)の手続きが終ると、ステップ
(155)の手続きを行う。ステップ(1551として
は、第2のポインタの内容Nに1を加え1次にアドレス
がPTIN+の位置の第1のポインタ(143)の内容
に上記HPを代入する。
Now, when the procedure of step (253) is completed, the procedure of step (155) is performed. In step (1551), 1 is added to the content N of the second pointer and the above HP is assigned to the content of the first pointer (143) whose primary address is PTIN+.

そうして、エリアTQのうちの(1451の領域(以下
IIRとする)のうち* mptt+i−++*+〜f
f1py++uをゼロにセットする。
Then, out of (1451 areas (hereinafter referred to as IIR) of area TQ, *mptt+i-++*+~f
Set f1py++u to zero.

ステップ(155)の処理の前に、ワf154)という
後ろ(第11図及び12図)からもどり口がある点。
Before the processing in step (155), there is a return exit from the back (FIGS. 11 and 12) called wa f154).

またステップ(155)の処理の後に後ろ(第12図)
からの別のもどりロカ(156)がある点に留意された
い。
Also, after the processing in step (155) (see Figure 12)
Note that there is another return loca (156) from .

次に、ステップ(157+として、以下の処理で作成、
変換する論旨変換用テーブル(T)を、何も記憶されて
いない初期状態にもどす。
Next, step (as 157+, create with the following process,
The thesis conversion table (T) to be converted is returned to its initial state in which nothing is stored.

そして、ステップ(158)に示す手続きAの様にTO
py+s−u*+からTQprts+ までの論旨文を
サーチして、2度以上現れる語い(例えば第8図の(1
46)では”何”という語いがこれにあたる)の記憶さ
れている位r!l(アドレスα)をそれぞれテーブルT
に記憶する。
Then, as in procedure A shown in step (158), TO
Search the thesis text from py+s-u*+ to TQprts+, and use words that appear more than once (for example, (1) in Figure 8).
46) The word "what" corresponds to this) is memorized in r! l (address α) respectively in table T
to be memorized.

次に、フローの説明は第1O図に移る。The flow description will now turn to FIG. 1O.

ステップ(1581の次に、ステップ(160)でまず
ループカウンタJをPT+N−0の内容+1にセットす
る。
After step (1581), first, in step (160), loop counter J is set to the contents of PT+N-0+1.

そして、後ろ(第12図より)からのもどりロレ(17
0)由で、ステップ(161)でJ≦「PT IN+の
内容」かどうかとを比較する。
Then, the return lore (17) from the back (from Figure 12)
0), and in step (161) it is compared with whether J≦“contents of PT IN+”.

J≦PT+s+の内容ならステップ(162)へ分岐し
If J≦PT+s+, branch to step (162).

J >PTIN+の内容なら口(第11図の始め)へ分
岐する。
If J > PTIN+ content, branch to mouth (beginning of Figure 11).

以下、ステップ(1621〜(169)はひとかたまり
としてループするので、ステップ(162)〜(169
)を先に説明し、しかる後に、口(第11図)以下の処
理について述べる。
Hereinafter, steps (1621 to (169)) are looped as a group, so steps (162) to (169)
) will be explained first, and then the processing below (FIG. 11) will be explained.

まず、ステップ(162)では、第2番目のループカウ
ンタKにエリアTOのうちの領域のうちのmJのところ
の内容(初期値は0)を代入する。
First, in step (162), the contents of mJ in the area TO (initial value is 0) are assigned to the second loop counter K.

ステップ(163)では、Kに1を加える。In step (163), 1 is added to K.

そしてステップ(1641でKとRAM  ^の文番号
(1301nxの最大値(MAX(nx)と呼ぶ)との
比較を行っている。
Then, in step (1641), a comparison is made between K and the maximum value of the sentence number (1301nx) in the RAM ^ (referred to as MAX(nx)).

もしに≦MAX (nxl であればステップ(165
)へ進み、 K > MAX (nx)であれば夕(第12図)へ分
岐する。
If ≦MAX (nxl, step (165
), and if K > MAX (nx), it branches to evening (Figure 12).

ステップ(165)では、TQ、の論旨文とRAM  
Aの甲のうちアドレスがKの位置に記憶されていてるも
の(甲にと呼ぶ)の論旨文が比較される。
In step (165), TQ's thesis statement and RAM
The thesis statement of A's A whose address is stored in the position of K (referred to as A's A) is compared.

その際、両輪名文のデジタルデータが完全に一致する場
合は当然であるが、デジタルデータが異っていても一致
と見なす場合を認める。どの程度具っている両者を一致
と見なすかの設定は、システム設計の場合に応じた裁量
である。本実施例では、その単なる一例として、甲の側
の論旨文の「X」という語い(システムが補った特殊な
主語(や述語))は、対応するTQJの側の論旨文のあ
らゆる語いと一致する。また、TQaの側に出てくる「
何」という語いのデジタルデータは、甲にのそれに対応
する語いのデジタルデータがどんなものであっても一致
と認めると設定している。
In this case, it is natural if the digital data of the two wheel names match completely, but it is allowed to consider cases where the digital data are different even if they are considered to be a match. Setting the degree to which the two are considered to be a match is a matter of discretion depending on the system design. In this example, as just one example, the word "X" (a special subject (or predicate) supplemented by the system) in Party A's thesis statement can be used with any word in the corresponding thesis statement on TQJ's side. Match. Also, “
It is set that the digital data of the word "What" is recognized as a match regardless of the digital data of the corresponding word in Party A.

フロチャート中では、このような、意味上、論理上の一
致がある場合にデジタルデータが異っていても一致と認
めるという点を4という記号で表現しである。
In the flowchart, the symbol 4 is used to indicate that when there is a semantic or logical match, the match is recognized even if the digital data is different.

さて、そのようにしてステップ(165)で両者が比較
され、一致すればステップ(166)に進み、−致しな
ければステップ(163)にもどる。そこで。
Now, in this way, the two are compared in step (165), and if they match, the process proceeds to step (166), and if they do not match, the process returns to step (163). Therefore.

ステップ(166)では、第9図手続きAでテーブルに
記憶した「位置の情報(α)」に従って、 TQ、と甲
にの語いに矛盾があるかを検定する。手続き^では、共
通の語いが現れなければならない位置を記憶しているの
で2ステツプf166)の手続きBにおいて、この位置
情報を使って検定を行なう事で、条件(乙)の数(前記
G)が複数の場合でも。
In step (166), it is tested whether there is a contradiction between the words TQ and A according to the "position information (α)" stored in the table in procedure A of FIG. In procedure ^, the position where a common word must appear is memorized, so in procedure B of 2 steps f166), by performing the test using this position information, the number of conditions (B) (G ) even if there is more than one.

その条件相互に論理展開上のそごをきたすことを防ぐこ
とが可能となる。
It is possible to prevent the conditions from causing problems in logical development.

そうしてステップ(1671で、矛盾があればステ・ノ
ブ(1631へもどり、矛盾がなければステップ(16
8)へ進むという分岐を行う。
Then, step (1671), if there is a contradiction, return to step knob (1631, if there is no contradiction, step (16)
8).

ステップ(168)において、いままで1位置情報しか
記憶していなかったテーブルTに、上記αに対応するT
qJと甲にの語いを記憶させる。更に。
In step (168), the table T corresponding to the above α is added to the table T which has stored only one position information so far.
Make qJ and A memorize the words. Furthermore.

Tとは別の、答え出力のために用意されたテーブルに答
えが代入可能かを検知(例えば、実施例の場合は、 T
QJの語いが”何”であり甲にの語いが「x」以外なら
甲にの語いが答えであり、これを答えテーブルに代入す
る〕して、答えテーブルに代入する。
Detect whether the answer can be assigned to a table prepared for outputting the answer, which is different from T (for example, in the case of the example, T
If the word in QJ is "what" and the word in A is other than "x", the word in A is the answer, and this is substituted into the answer table] and substituted into the answer table.

次に、ステップ(169)において+1llJの内容と
してKを代入し、Jに1を加えて、ステップf1611
へもどる。
Next, in step (169), K is substituted as the content of +1llJ, 1 is added to J, and step f1611
Return to

第11図では、第1O図のステップf161)でJ>P
T4.41 の内容の場合に分岐して来る口から処理が
始まる。
In FIG. 11, in step f161) of FIG. 1O, J>P
If the content is T4.41, processing starts from the branched point.

ステップ(1711において、以下の処理で解答を出力
するか否かを制御する変数IDXにゼロを代入し、前述
したHPにPT(H+ の内容を代入し、JにPTIN
−I+ の内容を代入する。
In step (1711), zero is assigned to the variable IDX that controls whether or not to output an answer in the following process, the contents of PT(H+ are assigned to the aforementioned HP, and PTIN is assigned to J.
-Substitute the contents of I+.

ステップ(1721でJに1を加える。Step (Add 1 to J at 1721.

ステップ(173)では、J≦rPTts+の内容」が
どうかを判別し。
In step (173), it is determined whether the content of J≦rPTts+ is satisfied.

、1≦PT+Nlの中身ならステップ(174)に進み
, 1≦PT+Nl, proceed to step (174).

J>PTnu の中身ならステップ(1791に分岐す
る。
If J>PTnu contents, branch to step (1791).

さて、ステップ(1741に進んだ場合は、KにmJを
代入しステップ(1741次に、ステップ(175)で
RAM  A上に記憶されている甲のうちKを文番号と
するものが、いくつ乙を有するかの個数(すなわち条件
の数GKIが0かどうか調べる。
Now, if you proceed to step (1741), substitute mJ to K and step (1741).Next, in step (175), find out how many sentences in A that have K as the sentence number are stored in RAM A. Check whether the number of conditions (that is, the number of conditions GKI) is 0.

ステップ(175)において、GK=0であればステッ
プ(172)にもどり、GK=Qであれば、ステップ(
176)に進んでIDXに1を加える。
In step (175), if GK=0, return to step (172); if GK=Q, step (
176) and add 1 to IDX.

そしてステップ(177)に示す手続きDのように甲に
の語いに対応するTQJの語いを記憶する(記憶r)。
Then, as in procedure D shown in step (177), the word TQJ corresponding to the word A is stored (memory r).

その際、 TQ、の語いが、前記手続きCで作成したテ
ーブル中の語いと一致すれば、 TQ、の語いのかわり
に、そのテーブル中でTQ、に対応する甲の語いを記憶
rとして記憶する(手続きD)。
At that time, if the word TQ matches the word in the table created in procedure C above, memorize the word A corresponding to TQ in that table instead of the word TQ. (Procedure D).

そうして9次にステップ(178)として、 TQのエ
リアのうちのTQHp−+〜TGHp、axに各々、R
AMA中乙ADDK〜乙ADDK+ GKの論旨文をロ
ードする。
Then, in the ninth step (178), R is applied to TQHp-+ to TGHp, ax in the TQ area.
Load the thesis text of AMA Chuotsu ADDK ~ Otsu ADDK+ GK.

そして、上記手続きDでの記憶rに従って、 TQ□□
1〜TQ□や。Kの語いを変換する。
Then, according to the memory r in procedure D above, TQ□□
1~TQ□ya. Convert the word K.

この時点で、入力された質問論旨文が、内容的に新たな
る論旨文に変換、記憶された訳である。
At this point, the input question thesis statement has been converted into a new thesis statement and stored.

例えば本例の「何が友達か。」の論旨「何」 「友達」
は、この時点で、「何」 「おとなしい」及び「何」 
「生物」の2つの新たなる論旨文に変換・記憶されてい
る。
For example, in this example, "What is a friend?" thesis "What""Friend"
At this point, "what", "quiet" and "what"
It has been converted and memorized into two new thesis sentences for "Biology".

そして、1(PにGKを加え、ステップ(172)へも
どる。
Then, GK is added to 1(P) and the process returns to step (172).

また、ステップ(173)でJ>PT+s+ の中身で
あってステップ[1791へ分岐した場合は、まず。
In addition, if the content of J>PT+s+ is found in step (173) and the process branches to step [1791], first.

IDX=Oかどうかを判断し。Determine whether IDX=O.

TDX≠0ならワ(第12図)へ分岐し。If TDX≠0, branch to W (Figure 12).

IDX=Oなら解答を出力(第13図参照)(180)
 した後、 TQのエリア中のl1lpy +w+の内
容に1を加えて、力(第9図156)へもどる。
If IDX=O, output the answer (see Figure 13) (180)
After that, add 1 to the contents of l1lpy +w+ in the TQ area and return to force (Fig. 9, 156).

さて、第12図においては、第10図のステップ(16
4)でK > MAX (nx)の場合に分岐した夕か
ら処理が行なわれる。
Now, in FIG. 12, step (16) of FIG.
In 4), if K > MAX (nx), processing is performed from the branched point.

まずJ>1かどうかが調べられ。First, it is checked whether J>1.

Julならば、ステップ(1871へ分岐する。If it is Jul, branch to step (1871).

J≦lならば、ステップ(1831へ分岐する。If J≦l, branch to step (1831).

ステップ(187)へ分岐して来たなら、JがPT+N
−0の内容+lと等しいかどうかを比較する。
If it branches to step (187), J is PT+N
Compare whether it is equal to the content of -0+l.

等しい場合は、Nを1減じ、 IIIJにlを代入し、
 m。
If they are equal, subtract 1 from N, substitute l for IIIJ,
m.

−lに1を加えた上で(1881、ワ(第9図)へもど
る。
- Add 1 to l and return to (1881, wa (Figure 9)).

等しくない場合は、ステップ(189)でまず酌にlを
代入し+mJ−1に1を加え、Jを1減じた上で、しく
第9図)へちどる。
If they are not equal, in step (189), first substitute 1 for the cup, add 1 to +mJ-1, subtract 1 from J, and then return to Figure 9).

ステップ(11113)へ分岐した場合は、解答を出力
したか否かを示すフラッグANSが”0“か否かを調べ
、へNS>0なら、一連の処理を終る(186) AN
S≦0であれば、ステ・ンプ(184) (185)で
あらかじめ用意した「知らない」という意味を表す文章
のうちの1つを乱数を発生させて9選択1表示し、そし
て、処理を終る(+861゜ 第13図は、第1O図のステップ(1681で答えが順
次代入され、第11図のステップ(180)で出力され
る答えテーブルの論旨文から、応答文章を生成する一手
段を示す。
When branching to step (11113), check whether the flag ANS indicating whether the answer has been output is "0" or not, and if NS>0, end the series of processing (186) AN
If S≦0, generate a random number and display 9 selections and 1 of the sentences expressing the meaning of "I don't know" prepared in advance in Step (184) (185), and then perform the processing. End (+861°) Figure 13 shows a method for generating response sentences from the thesis sentences of the answer table into which the answers are sequentially substituted in step (1681) in Figure 1O and output in step (180) in Figure 11. show.

ステップ(190)は、答えテーブルに記憶されている
答えの論旨文の一例である。この論旨文に、助詞や語尾
等を付加して文章として出力する訳であるが9本実施例
では、ステップ(191)で格助詞及び語尾を付加する
手段として、まず、乱数を発生させ、その乱数に従って
、ステップ(1921(1931で格助詞の群及び語尾
の辞書から、任意の言葉を選び、ステップ(+941で
上記論旨文に付加して出力している。
Step (190) is an example of the thesis statement of the answer stored in the answer table. Particles, word endings, etc. are added to this thesis statement and output as a sentence.9 In this embodiment, as a means of adding case particles and word endings in step (191), a random number is first generated, and then a random number is generated. According to the random number, an arbitrary word is selected from the dictionary of case particles and word endings in step (1921 (1931), and is added to the thesis statement and output in step (+941).

より複雑な文の場合は、この方法に、前記第6図での文
章分解処理の際に、助詞1条件語等の辞書中いずれの言
葉が、どの出現順で現れていたかの情報を記憶しくこの
手段は容易に本実施例に付加できる)、その情報を基に
助詞等の付加を制御する方法を採用することで対応でき
るものである以上1本発明の実施例の詳細を説明して来
たが2本発明は小型なマイコンシステムで稼動可能とす
る為に下記の様な特徴を有している。
In the case of more complex sentences, this method can be used to remember which words in the dictionary, such as particle 1 conditional words, appeared in which order during the sentence decomposition process shown in Figure 6 above. (means can be easily added to this embodiment), and can be handled by adopting a method of controlling the addition of particles, etc. based on that information.The details of one embodiment of the present invention have been explained above. However, the present invention has the following features in order to be able to operate with a small microcomputer system.

(1)第6図で説明したごとく、言語の構文解析におい
て1文章を構文的区分をする為に必要最少限の情報辞書
をもつ。又その辞書は大きさが自由である。構文解析の
手順が前述して説明したごとく、簡素化できており、か
つ前述辞書に登録する言語はきわめて少なくてすむ。
(1) As explained in Figure 6, it has the minimum information dictionary necessary for syntactically classifying one sentence in language syntactic analysis. Also, the dictionary can be of any size. As explained above, the syntax analysis procedure can be simplified, and the number of languages to be registered in the dictionary can be extremely small.

(2)第7図で説明したごとく通常文を事実文と条件文
に区分し2条件文の数と、第2のNポインターと、さら
に第8図のごとく論旨分解された文の記憶位置のアドレ
スを示す第1のポインターPTによりRAM  Aのメ
モリーに効率的に配置された論旨文群の推論の進行深さ
を簡単に制御することが出来、きわめて少ない処理手順
、メモリー数で本発明を実現できる手段をもっている。
(2) As explained in Figure 7, normal sentences are divided into factual sentences and conditional sentences, and the number of two conditional sentences, the second N pointer, and the memory location of the sentence decomposed into thesis as shown in Figure 8 are calculated. It is possible to easily control the depth of inference of the thesis sentences efficiently arranged in the memory of RAM A by the first pointer PT indicating the address, and the present invention is realized with extremely few processing steps and the number of memories. I have the means to do so.

(3)第13図でのごとく解答出力文は2色々な助詞1
語尾でバライテイにとんだ文章を簡単に出力でき1人間
が作文して表現するのと同等な情緒的文章を作文できる
(3) As shown in Figure 13, the answer output sentences are 2 various particles 1
It is possible to easily output sentences with a variety of endings, and it is possible to compose emotional sentences equivalent to those written and expressed by a single person.

(4)第14図での説明のごとく、外部出力として解答
文章出力の論旨デジタルデータと、外部駆動部にi!続
してあらかじめ決められたデジタルデー夕と比較し一致
した時、外部出力信号を発することも可能であり、自然
言語で入力された質問に対し論理的意味を解析し、解答
として何らかの動作をもとちなわせることが出来る。い
わゆる言語と知能をもったロボットを提供できる。
(4) As explained in Fig. 14, the digital data of the answer text output as external outputs and the i! It then compares it with predetermined digital data and when it matches, it can issue an external output signal.It can also analyze the logical meaning of questions input in natural language and take some action as an answer. I can make you say that. We can provide robots with so-called language and intelligence.

(5)さらに追記するのであれば9本発明のその基本的
要素がハード的ソフト的な第6図に示す様に高度な工夫
により、コンパクトに構成されているものであるから1
本発明の装置全てが一体のケースに納まることも、同一
基板上で構成することも、さらにlチップマイクロコン
ピュータ内に構成し得ることも可能と成るものである。
(5) I would like to add a further note: 9 The basic elements of the present invention are compactly constructed by sophisticated hardware and software as shown in Fig. 6.
The entire device of the present invention can be housed in a single case, can be constructed on the same substrate, or can even be constructed within an 1-chip microcomputer.

この発明の応用として本発明の実施例に入力に音声認識
、出力に音声1行動出力を接続すると。
As an application of this invention, if you connect voice recognition to the input and voice 1 action output to the output in the embodiment of the present invention.

これはまさに従来にない、コンピュータが限りなく人間
の姿に近ずくことを意味する9人工知能をもった非常に
コンパクトで行動範囲の広い1人間の姿に近いロボット
を提供することもできる。さらに今日の情報会社の端末
としてのキャプテンシステム等に応用すればlt間六入
力より論理的意味の同じような文章、単語を引き出し出
力可能に成り、使用漕手が非常に良く成る。
This means that a computer can come as close as possible to a human figure, which is unprecedented.9 It is also possible to provide a robot that is extremely compact, has a wide range of motion, and is close to a human figure, with artificial intelligence. Furthermore, if applied to the captain system used as a terminal in an information company today, it will be possible to extract and output sentences and words with similar logical meanings from six inputs, which will greatly improve the ability of rowers.

また、家庭内情報の例えば電話回線によるコントロール
にも応用できる。例えばあらかじめの知識として本シス
テムに1文章入力を次の様にしておく。「ガスは火がで
る」 「ドライヤーは過熱する。」 「電動ドリルは危
ない。」 「火がでるのは危ない。」 「過熱するもの
危ない。」 「危ないのだったら留守中スイッチOFF
する。」と日常人間が考えているとおりの事を、自然の
言葉で入力する。
It can also be applied to controlling household information, for example, via a telephone line. For example, as prior knowledge, input one sentence into this system as follows. ``Gas can catch fire.'' ``Dryers can overheat.'' ``Electric drills are dangerous.''``It's dangerous to catch fire.'' ``Things that overheat are dangerous.'' ``If it's dangerous, turn it off while you're away.''
do. ” input what everyday people think in natural language.

これらが記憶された本発明の装置に例えば外出先から音
声認識システムを連結して、これ又自然の言葉で「スイ
ッチOFFするのは何か。」と質問すると、論旨推論し
本装置より「スイッチOFFするのはガス、ドライヤー
、電動ドリルです。」と解答応答音声出力を得ることも
できる。これらを自動的にその推論結果に従ってスイッ
チOFFさせることも可能である。
For example, if you connect a voice recognition system from outside the device to the device of the present invention in which these are stored and ask a question in natural language, ``What turns off the switch?'' It is also possible to obtain an answer voice output saying, ``It turns off the gas, hair dryer, and electric drill.'' It is also possible to automatically switch them off according to the inference results.

(6)ワープロシステムにも意味推論して新たなる文章
作成をさせるのに応用できる。
(6) It can also be applied to word processing systems to create new sentences through semantic inference.

(7)パーソナルコンピュータにも9本発明の入出力、
応答がまったくの自然言語であるからデータ引出し、引
入れ、プログラムの開発等にソフト的応用が可能である
(7) The input/output of the present invention also applies to personal computers.
Since the response is in completely natural language, it can be applied to software for data extraction and input, program development, etc.

次に本発明の実現性及びいかに今までにない特徴をもち
、今後のコンピュータ関連の電子装置(例えばComp
uter asisted 1nstractton 
 機器。
Next, we will discuss the feasibility of the present invention and how it has unprecedented features, and which will be used in future computer-related electronic devices (e.g., Comp).
uter assisted 1nstructton
device.

ワードプロセッサー、データベースコンピュータシステ
ム、 BASIC−CPM・日本語等言語人出カプログ
ラムを有するパーソナルコンピュータ、ハンディクイブ
ポケットコンピュータ、ハンディタイプ電子メモ器等)
に重大な影響をおよぼすかを説明する為、実際にメモリ
ー空間が128にバイトX16ビツト、マイクロプロセ
ッサ−16ビツト、内部ROM128バイト、 RAM
64にバイト、外部メモリーとして、フロッピーディス
クtUバイトX16ビツト×2台内蔵(ただし内外部と
も本例では一部のメモリしか使用していない。)CRT
、キーボード入力装置付のいわゆる今日でいうパーソナ
ルコンピュータで実現した日本の小学生の国語学習に用
いた文章の知能言語的応答の詳しい例を以下に示す。
Word processors, database computer systems, personal computers with language output programs such as BASIC-CPM and Japanese, handy quive pocket computers, handheld electronic memo devices, etc.)
To explain how it has a significant impact on the system, the actual memory space is 128 bytes x 16 bits, microprocessor - 16 bits, internal ROM 128 bytes, RAM
64 bytes, built-in floppy disk tU byte x 2 x 16 bits as external memory (however, only a portion of the internal and external memory is used in this example).CRT
A detailed example of intelligent linguistic responses to sentences used for Japanese language learning by Japanese elementary school students, realized using today's so-called personal computers equipped with keyboard input devices, is shown below.

本例は文章の論旨分解において′M7図の各文番号に対
応した事実(甲) (121)の文が単数ではなく、か
なり多い複数にしても実現できたことも示している。
This example also shows that in the thesis analysis of a sentence, the fact (A) (121) corresponding to each sentence number in Figure 'M7 could be realized even if the sentence was not singular, but rather plural.

本発明の前述−構成要素のプログラムを起動し例えば日
本語入出カプログラムとインターフェースしながら下記
先生が、応答装置に入力する知識として文章を入力して
行った例について、以下本例の人力文章を示す。
Regarding the example in which the teacher below inputs sentences as knowledge to be input into the response device while starting the component program of the present invention and interfacing with, for example, the Japanese input/output program, the following is the manual writing of this example. show.

く人力文章の例〉 犬は日本の生れで、動物で、泳げるもので、雑食で、わ
んわんと鳴くのである。
Examples of human-powered sentences> Dogs are Japanese animals, can swim, are omnivores, and bark loudly.

ライオンは動物で、肉食で、アフリカの生れで。Lions are animals, carnivores, and are of African origin.

こわいのに、泳げない。I'm scared, but I can't swim.

ライオンはやっばり百獣の王で、きっとワオーと鳴くの
だ。
The lion is the king of beasts after all, and it's sure to make a roar.

猿6日本の生まれで、動物で、雑食で、すばしこくて、
木に登れるのに、泳げない。
Monkey 6 Born in Japan, he is an animal, omnivorous, and quick.
I can climb trees, but I can't swim.

キリンは首が長くて、象は鼻が長い。Giraffes have long necks, and elephants have long trunks.

キリンは草食で、動物、アフリカの生まれ、そして泳げ
ない。
Giraffes are herbivorous animals, native to Africa, and cannot swim.

象ち草食で、アフリカの生れで、ブオーと鳴く。They are elephants, herbivores, and were born in Africa, so they make loud noises.

動物である。It's an animal.

象は大きい、そしてクジラだって大きい。Elephants are big, and so are whales.

クジラは海の生れで、絶対に泳げる。Whales are born in the sea and can absolutely swim.

ペンギンは鳥で、クジラはどうやら動物なんだ。Penguins are birds, and whales are apparently animals.

ペンギンが泳げるのに、象は泳げない。Penguins can swim, but elephants can't.

ペンギンは南極の生れで、今アフリカに居る。Penguins were born in Antarctica and now live in Africa.

ペンギンはア、フリカに住めなくて、ライオンは南極に
住めない、キリンも南極に住めないのです。
Penguins cannot live in Africa, lions cannot live in Antarctica, and giraffes cannot live in Antarctica.

ライオンは全南極に居る。犬は日本に居る。猿が海に居
る。象がアフリカに居る。キリンが日本に居る。そして
クジラが海に居る。
Lions are found throughout Antarctica. The dog is in Japan. There is a monkey in the sea. There are elephants in Africa. There are giraffes in Japan. And there are whales in the sea.

「どこか」に住めないのに、「どこか」に居るんだった
らやっばりかわいそうだよ。
I really feel sorry for them if they can't live "somewhere" but are staying "somewhere".

泳げないのに、海に居るならおぼれるんだよ。Even if you can't swim, you'll drown if you're in the ocean.

おぼれるのであればかわいそうである。I feel sorry for him if he drowns.

「ある所」の生れで、今「ある所」に居るのならばきっ
と喜んでいる。
I was born in a ``certain place,'' and if I'm currently in a ``certain place,''I'm sure I'm happy.

「誰か」がかわいそうなら君は「誰か」を助けるんだよ
If you feel sorry for someone, you should help them.

「動物」が「何処か」の生れだったら「何処か」が「動
物」の故郷だ。
If an ``animal'' is born ``somewhere,'' then ``somewhere'' is the ``animal'' home.

「動物」が「何処か」の生れだから「動物」の故郷は「
何処か」なのである。
Since "animals" are born "somewhere," the hometown of "animals" is "
Somewhere.”

僕らはみんな生きている。We are all alive.

生きているなら唄うんだ。If you're alive, sing.

生きているなら楽しいんだ。It's fun to be alive.

おけらだって生きている。かえるだって生きている。あ
めんぼだって生きている。
Even Okera is alive. Even frogs are alive. Even Amenbo is alive.

みんなみんな生きているんだったら君の友達なんだよ。If everyone is still alive, they're your friends.

動物なら生きている。鳥であれば生きているのだ・・・
・・・と、入力した。この文章全体がまったく自然言語
に近いプログラムと言え、超高級言語と言える。
Animals are alive. If it's a bird, it's alive...
I typed... This entire sentence can be said to be a program that is completely similar to natural language, and can be called a super high-level language.

以下に質問文人力と応答解答突出力の例を示す。小学生
徒への教示として先生が質問文を入力する。ここで以下
に質問文人力を先生、自動応答文出力を作文をするロボ
ットとして略して記す。
Below are examples of question writer skills and response/answer output. A teacher inputs a question to teach elementary school students. Here, the human ability to write questions will be abbreviated as a teacher, and the automatic response output will be referred to as a robot that composes a composition.

先生  :今何がアフリカに居るのですか。Teacher: What is happening in Africa now?

ロボット:象とキリンとペンギンです。Robots: Elephants, giraffes, and penguins.

先生  :何がかわいそうですか。Teacher: What do you feel sorry for?

ロボット:ペンギンがかわいそうです。Robot: I feel sorry for the penguin.

先生  :なぜペンギンがかわいそうですか。Teacher: Why do you feel sorry for the penguin?

ロボット:ペンギンはアフリカに住めないのに。Robot: Penguins can't live in Africa.

ペンギンがアフリカに居るからです。Because penguins live in Africa.

先生  二彼を故郷に帰してあげて下さい。Teacher, please send him back to his hometown.

ロボット:はいそうします。Robot: Yes, I will.

この時の本発明応答電子装置の外部出力が第14図で説
明したごとく外部行動物を駆動しても良い。
At this time, the external output of the responsive electronic device of the present invention may drive an external behavioral object as explained in FIG.

たとえばこの例ではアフリカと南極の場面設置がされて
おり、アフリカの場所置かれていたペンギンの人形が南
極の場所に人間の手と腕の動きを真似したロボットによ
′り稼動させられる。
For example, in this example, scenes are set in Africa and Antarctica, and a penguin doll placed in the African location is moved to the Antarctic location by a robot that imitates human hand and arm movements.

さらに下記の対話も実現できた。Additionally, we were able to achieve the following dialogue.

先生  :ペンギンは喜んでいると思うか。Teacher: Do you think the penguin is happy?

ロボット:はい、そう思います。Robot: Yes, I think so.

先生  :ペンギンは何故喜んでいるが。Teacher: Why is the penguin happy?

ロボット:ペンギンは南極の生れで、ペンギンが南極に
いるからです。
Robot: Penguins are from Antarctica, because penguins are in Antarctica.

例えばここで新たな知識を追加入力しても第6図より説
明の論旨解析をして第8図のRAM  A 、 Hに配
置追加して再処理すれば良いだけである。
For example, even if new knowledge is additionally input here, it is only necessary to analyze the gist of the explanation from FIG. 6, add it to RAM A and H in FIG. 8, and reprocess it.

ここで先生の生徒の一人に田中君と言う生徒がいたとし
て、先生は以下の様に文章入力を追加して作文ロボット
より下記の出力群を得れる。
Here, if one of the teacher's students is Tanaka-kun, the teacher can add text input as shown below and obtain the following output group from the composition robot.

先生  二田中君は生きている。Teacher: Nitanaka-kun is alive.

ロボット:はい、わかりました。Robot: Yes, I understand.

そして、さらに又、質問文を入力した。下記の様な応答
出力を得た。
Then, I entered another question. I got the following response output.

先生  :田中君は友達ですが。Teacher: Tanaka-kun is my friend.

ロボット:はい、そうです。Robot: Yes, that's right.

先生  :誰が楽しいのですか。Teacher: Who has fun?

ロボット:僕は楽しい。おけらも、かえるも。Robot: I have fun. Okera and frog.

あめんぼも、犬も、猿も、・・・も。Amenbo, dogs, monkeys, etc.

田中君も楽しい。Tanaka-kun is having fun too.

先生  :えらいえらい。Teacher: That's great.

ロボット:いや、どうも。(本応答文は質問文に対応し
てあらかじめ用意しておいたものの出力6) 先生  二田中君はどうですか。
Robot: No, thank you. (This response text was prepared in advance in response to the question text, but output 6) Teacher: How about you, Nitanaka-kun?

ロボット:田中君は楽しい。Robot: Tanaka-kun is fun.

田中君が友達。Tanaka-kun is my friend.

田中君は生きている。Tanaka-kun is alive.

以上が生徒への教示した例の内容である。次に生徒に回
答を入力させ、正誤の判定をさせた例を示す。
The above is the content of the example taught to the students. Next, we will show an example in which students are asked to input their answers and judge whether they are correct or incorrect.

例えば9あらかじめ質問文を入力しておき、ランダムに
本応答電子装置より出力表示させる。例えば。
For example, 9. input a question in advance and have it randomly output and displayed from the response electronic device. for example.

ロボット:泳げないのは誰ですか。Robot: Who can't swim?

これに対し、生徒が前記入力文章例から意味判断し下記
入力する。
In response, the student determines the meaning from the input sentence example and inputs the following.

生徒  :猿も、象も、ライオンも、キリンも泳げない
Student: Monkeys, elephants, lions, and giraffes can't swim.

この解答入力は、前述してきたロボットによる解答応答
出力そのものに成るものであるから、それらの比較一致
をして正誤判定出力を行なえばよい。
Since this answer input is exactly the answer/response output from the robot described above, it is sufficient to compare and match them and output the correct/incorrect determination.

例えば。for example.

ロボット:正解です。Robot: Correct.

と答えさせられるのは自明の理である。ここに本格的知
能をもった言語文章応答学習装置の実施例を示した。
The answer is self-evident. Here, we have shown an example of a language sentence response learning device with full-scale intelligence.

今まで1日本語の例で示して来たが、言語の論旨より意
味を推論するのは世界中はとんど全ての言語に共通して
言えるものである。
I have so far shown the example of Japanese, but inferring the meaning from the gist of the language is common to almost all languages in the world.

第6図の一般文章(101)を英語としても論旨に分解
する場合も1例えば英、米国語で質問文であればほとん
ど「?」が語尾に付くだろうから(104)の辞書にそ
れを保持してれば良いし1条件語辞書(106)も英語
であればr if、 1fthen、−・J等があては
まる。さらに第7図の事実(甲) (121)も。
When breaking down the general sentence (101) in Figure 6 into its thesis in English, for example, if it is a question sentence in English or American, most of the sentences will end with a "?", so put it in the dictionary (104). It is sufficient to keep it, and if the 1-condition word dictionary (106) is in English, rif, 1fthen, -.J, etc. apply. Furthermore, the fact in Figure 7 (A) (121).

条件(乙) (1231も同様に英語単語での論旨群に
分解されて記憶されて行き、以後前述日本語の場合とほ
ぼ同一の処理をされて、同様な応答出力を得、効果を得
ることができる。
Condition (B) (1231 is similarly decomposed into a group of English words and memorized, and is then processed in almost the same way as the Japanese case described above to obtain the same response output and effect. I can do it.

第3図の文章入力の例でも、そのまま例えば英訳しても
何らさしつかえなく処理できる。例えば(31)の文章
群は。
Even in the example of text input shown in FIG. 3, it can be processed without any problem even if it is translated into English. For example, the sentence group in (31) is.

A 1ion is a mam慣al。A 1ion is a mam habitual.

^1ion is a fraided。^1ion is a frayed.

A  pengin  is a bird。A penguin is a bird.

If  it  is quiet and a li
ving thing、1tis  just our
  frendsと英訳して日本語の場合と同様に処理
し応答を求められる。
If it is quiet and ali
ving thing, 1tis just our
It is translated into English as "friends" and processed in the same way as in Japanese, and a response is requested.

以上説明したように本発明装置は大略まとめて下記の効
果がある。
As explained above, the device of the present invention has the following effects.

(1)人間が本発明装置と自然に近い言語(日本語、英
語等)で対話出来る。
(1) Humans can interact with the device of the present invention in a language that is close to natural (Japanese, English, etc.).

(2)本発明装置に言語(以下日本語と言う)で知識や
知恵を教えてゆくことが出来る。
(2) Knowledge and wisdom can be taught to the device of the present invention in language (hereinafter referred to as Japanese).

(3)本発明装置はその知識や知恵に従って1本発明装
置自身で推論や判断を行なう。
(3) The device of the present invention makes inferences and judgments by itself according to its knowledge and wisdom.

以上の様な今後の未来のコンピュータ応用システムの社
会への貢献に重大な影響を示唆する事項を実現して行く
内容のことが前述のごとく本発明ではその基本要素が8
ビツト、 16ビツト等のマイクロコンピュータプログ
ラム言語のステップ数わずか500ステツプ以下で実現
可能であり、真に画期的発明言える。
As mentioned above, the basic elements of the present invention are to realize the matters that will have a significant impact on the contribution of future computer application systems to society.
It can be realized with only 500 steps or less in a microcomputer programming language such as 16-bit or 16-bit, and can be called a truly revolutionary invention.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例の概要構成を示す図。 第2図は本発明の一実施例を示す回路ブロック図。 第3図〜第5図は本発明の一実施例によるものの動作を
説明するための説明図であって。 第3図は入力文章を示す図。 第4図は入力質問文章を示す図。 第5図は出力例としての解答文章を示す図である。 第6図は入力文章を要旨文に変換する手段を説明するた
めの図であり、■)は通常文、2)は質問文の例を示す
。 第7図は本発明の一実施例による結論として論述した文
章(甲)とそれを導く条件(乙)及び乙の数を区分した
結果を示す説明図。 第8図は本発明の一実施例によるものの論旨及び必要情
報の記憶配置及びその内容を説明するための図。 第9図〜第13図は本発明の一実施例を説明するための
フローチャート。 第14図は本発明の他の実施例による概要構成を示す図
である。 図に於て、(1)は電子装置、(6)はキーボード、 
(1(11はCRT、 (31)(321は入力文章詳
、 (34)は質問文章、 (35]は解答文章、 (
102)は切除語辞書、 (103)は通常文語尾辞書
(104)は質問文語尾辞書、 (1061は条件語辞
書、 (107)は復交辞書。 (1081は助詞辞書である。 なお1図中同一符号は同−又は相当部分を示す。 図面の浄書(内容(二変更なし) 9< 第 図 第 図 第 図 1/7I ↓ 2) 用カ2反逆で′fカ・ /、/lI3 /15 //6 第 図 第 9 図 第 図 第 0 図 第 図 第 13 図 手続補正書(自発) 平成2年1月lO日提出の特許願A3 2、発明の名称 文章応答方法 3゜ 補正をする者 事件との関係 住所 名称(6011
FIG. 1 is a diagram showing a schematic configuration of an embodiment of the present invention. FIG. 2 is a circuit block diagram showing one embodiment of the present invention. 3 to 5 are explanatory diagrams for explaining the operation of an embodiment of the present invention. FIG. 3 is a diagram showing an input sentence. FIG. 4 is a diagram showing the input question text. FIG. 5 is a diagram showing an answer text as an output example. FIG. 6 is a diagram for explaining the means for converting an input sentence into a summary sentence, where ■) shows an example of a normal sentence, and 2) shows an example of a question sentence. FIG. 7 is an explanatory diagram showing the result of classifying sentences (A) that are discussed as a conclusion, conditions leading to them (B), and the number of sentences (B) according to an embodiment of the present invention. FIG. 8 is a diagram for explaining the gist and storage arrangement of necessary information and its contents according to an embodiment of the present invention. 9 to 13 are flowcharts for explaining one embodiment of the present invention. FIG. 14 is a diagram showing a schematic configuration according to another embodiment of the present invention. In the figure, (1) is an electronic device, (6) is a keyboard,
(1 (11 is CRT, (31) (321 is input text details, (34) is question text, (35] is answer text, (
102) is an excised word dictionary, (103) is a regular sentence ending dictionary, (104) is a question sentence ending dictionary, (1061 is a conditional word dictionary, (107) is a reconstitution dictionary. (1081 is a particle dictionary. The same reference numerals indicate the same or equivalent parts. Engraving of the drawings (Contents (no changes) 9< Figure Figure Figure Figure 1/7I ↓ 2) In contrast to the use of Ka2, 'f Ka・ /, /lI3 /15 //6 Figure 9 Figure 0 Figure 13 Figure procedural amendment (voluntary) Patent application A3 filed on January 1, 1990 2. Method of responding to the title of the invention 3゜ Person making the amendment Name of address related to the incident (6011

Claims (2)

【特許請求の範囲】[Claims] (1)以下の要素を有する文章応答方法 (a)文章を論旨文に変形にし、複数の論旨文を論旨文
群として記憶する工程、 (b)以下の工程を有し、変換エリアを用いて質問文か
ら解答を出力する工程、 (b1)論旨文に基づき論旨文群から新 たな論旨文を論理的に検索する工程、 (b2)検索された論旨文が、事実を述 べている論旨文であり、すでに変換エリア に配置された論旨文と論理的に一致するも のを解答として出力する工程、 (b3)検索された論旨文が、解答とな らないとき、検索された論旨文を導くため に必要な1以上の論旨文を論旨文群から変 換エリアに階層的に記憶する工程、 (b4)同一階層に記憶された論旨文が 複数ある場合、個々の論旨文について、上 記(b1)(b2)(b3)の工程を繰り 返す工程、 (b5)上記(b4)の工程後、上記( b2)で記憶した論旨文の階層をバックト ラックし、バックトラックにより開放され た変換エリアを用いて上記(b1)〜(b 4)の工程を繰り返す工程。
(1) A text response method that has the following elements: (a) A step of transforming a text into a thesis statement and storing multiple thesis statements as a thesis statement group; (b) A text response method that has the following steps and uses a conversion area. (b1) logically searching for a new thesis statement from a group of thesis statements based on the thesis statement; (b2) determining whether the searched thesis statement is a thesis statement stating a fact; (b3) Necessary for deriving the searched thesis statement when the searched thesis statement does not become an answer. A step of hierarchically storing one or more thesis sentences from a group of thesis sentences in a conversion area, (b4) If there are multiple thesis sentences stored in the same hierarchy, the above (b1) and (b2) are performed for each thesis sentence. (b5) After the step (b4) above, backtrack the hierarchy of the thesis statement stored in (b2) above, and use the conversion area released by backtracking to perform the above (b1). ) to (b4).
(2)以下の要素を有する文章応答方法 (a)以下の工程を有し、文章を各種の論旨文に変形に
し、複数の論旨文を論旨文群として記憶する工程、 (a1)文章を、質問文と通常文とに区 分して、質問文から質問論旨文を生成し記 憶する工程、 (a2)通常文を、事実文と条件文とに 区分して、事実文をから事実論旨文を生成 して論旨文群に記憶する工程、 (a3)条件文を、結論等として論述す べき結論文と、この結論文を導く為に論述 されている論述文とに区分して、 論述文から論述論旨文を1以上生成して 論旨文群に記憶し、 結論文から結論論旨文を生成して、この 結論文を導くための上記1以上の論述論旨 文を判別できるようにして論旨文群に記憶 する工程、 (b)以下の工程を有し、変換エリアを用いて質問文か
ら解答文を出力する工程、 (b1)質問論旨文を変換エリアに配置 する工程、 (b2)変換エリアに配置された論旨文 の位置と順を記憶する工程、 (b3)変換エリアに最新に配置された 論旨文に基づいて、論旨文群をサーチし、 論理的に一致する論旨文を検索する工程、 (b4)上記(b3)の工程で検索され た論旨文が結論論旨文のとき、論旨文群の なかから、この結論論旨文から判別される 1以上の論述論旨文を変換エリアに配置し 、(b2)の工程に戻る工程、 (b5)上記(b3)の工程で検索され た論旨文が事実論旨文であるとき、この事 実論旨文が、変換エリアに既に配置された 論旨文と論理的に一致するものを解答とし て出力し、上記(b3)の工程に戻る工程 (b6)上記(b2)〜(b5)の工程 後、まだ(b3)の工程を経ていない他の 論述論旨文があるとき他の論述論旨文につ いて(b3)の工程に戻る工程、 (b7)上記(b2)〜(b6)の工程 後、上記(b2)の工程で記憶した論旨文 の順をひとつもどして、変換エリアを開放 し、(b3)の工程に戻る工程。
(2) A text response method having the following elements: (a) having the following steps, transforming the text into various thesis sentences and storing a plurality of thesis sentences as a group of thesis sentences; (a1) converting the sentences into (a2) dividing ordinary sentences into factual sentences and conditional sentences, and generating factual thesis sentences from factual sentences; Step of generating and storing it in a group of thesis sentences, (a3) Divide the conditional sentences into a conclusion sentence that should be discussed as a conclusion, etc., and an argument sentence that is argued to derive this conclusion sentence, One or more essay thesis sentences are generated and stored in a thesis sentence group, a conclusion thesis sentence is generated from the conclusion sentence, and the one or more essay thesis sentences mentioned above for deriving this conclusion sentence can be discriminated, and the thesis sentence group is created. (b) A process of outputting an answer text from a question text using a conversion area, which has the following steps, (b1) A process of arranging a question thesis statement in a conversion area, (b2) A process of storing an answer text in a conversion area. (b3) a step of searching a group of thesis sentences based on the thesis sentence most recently placed in the conversion area and searching for a logically matching thesis sentence; (b4) When the thesis sentence retrieved in the step (b3) above is a conclusion thesis sentence, placing one or more thesis sentences determined from this conclusion thesis sentence from the thesis sentence group in the conversion area, (b5) When the thesis sentence retrieved in step (b3) above is a factual thesis sentence, this factual thesis sentence is logically similar to the thesis sentence already placed in the conversion area. (b6) After the steps (b2) to (b5) above, there are other essays that have not yet gone through the step (b3). (b7) After the above steps (b2) to (b6), the order of the thesis sentences stored in the above step (b2) is returned by one, and the conversion is performed. The process of opening the area and returning to the process of (b3).
JP2002862A 1990-01-10 1990-01-10 Document answering method Pending JPH0367367A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002862A JPH0367367A (en) 1990-01-10 1990-01-10 Document answering method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002862A JPH0367367A (en) 1990-01-10 1990-01-10 Document answering method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP58090262A Division JPS59216229A (en) 1983-05-23 1983-05-23 Electronic device of sentence response

Publications (1)

Publication Number Publication Date
JPH0367367A true JPH0367367A (en) 1991-03-22

Family

ID=11541189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002862A Pending JPH0367367A (en) 1990-01-10 1990-01-10 Document answering method

Country Status (1)

Country Link
JP (1) JPH0367367A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333788A (en) * 2006-06-12 2007-12-27 Ricoh Co Ltd Lubricant application device, process cartridge and image forming apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333788A (en) * 2006-06-12 2007-12-27 Ricoh Co Ltd Lubricant application device, process cartridge and image forming apparatus

Similar Documents

Publication Publication Date Title
Robinson Performative linguistics: Speaking and translating as doing things with words
US20200395008A1 (en) Personality-Based Conversational Agents and Pragmatic Model, and Related Interfaces and Commercial Models
Loyall et al. Personality-rich believable agents that use language
Johnson-Laird Psycholinguistics without linguistics
CN102272755A (en) Method for semantic processing of natural language using graphical interlingua
Underwood On the edge: Intelligent CALL in the 1990s
Tarek et al. Towards highly adaptive edu-chatbot
JPS61221873A (en) Question and answer system using natural language
US20110040555A1 (en) System and method for creating and playing timed, artistic multimedia representations of typed, spoken, or loaded narratives, theatrical scripts, dialogues, lyrics, or other linguistic texts
Noice Two approaches to learning a theatrical script
Asoulin Why should syntactic islands exist?
JPH0367367A (en) Document answering method
Levison et al. A system for natural language sentence generation
JPH0367365A (en) Electronic device for documental answer
JPS59216229A (en) Electronic device of sentence response
JPH0367366A (en) Electronic device for documental answer
Slabbers Narration for virtual storytelling
Corum Cognitive semantics for creole linguistics: applications of metaphor, metonymy, and cognitive grammar to Afro-Caribbean creole language and cultural studies
Goldstein Philosophical integrations
Farhodovna Linguophilosophical Aspects of Translation in The Light of Its Psycholinguistic Model
WO2023163314A1 (en) Metaverse system for providing evolvable avatar on basis of artificial intelligence model, and method for generating nft for evolvable avatar
Mehta et al. Handling out of domain topics by a conversational character
Darmawati PSYCHOLINGUISTICS: A comprehensive review
McCallum et al. Making Sense of the Incomprehensible: A Serendipitous Encounter with Naivety as a Tool for Telling Tales in Troubled Times
Green et al. An Assistive Conversation Skills Training System for Caregivers of Persons with Alzheimer's Disease.