JP2697775B2 - Conversation system - Google Patents

Conversation system

Info

Publication number
JP2697775B2
JP2697775B2 JP3096195A JP9619591A JP2697775B2 JP 2697775 B2 JP2697775 B2 JP 2697775B2 JP 3096195 A JP3096195 A JP 3096195A JP 9619591 A JP9619591 A JP 9619591A JP 2697775 B2 JP2697775 B2 JP 2697775B2
Authority
JP
Japan
Prior art keywords
case frame
expression
input
frame expression
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP3096195A
Other languages
Japanese (ja)
Other versions
JPH04306769A (en
Inventor
一男 住田
顕司 小野
陽一 佐藤
Original Assignee
工業技術院長
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 工業技術院長 filed Critical 工業技術院長
Priority to JP3096195A priority Critical patent/JP2697775B2/en
Publication of JPH04306769A publication Critical patent/JPH04306769A/en
Application granted granted Critical
Publication of JP2697775B2 publication Critical patent/JP2697775B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、計算機システムに対し
て自然言語により指示を与えることで所望する動作を計
算機システムに行わせることができる会話システムに関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a conversation system capable of causing a computer system to perform a desired operation by giving a natural language instruction to the computer system.

【0002】[0002]

【従来の技術】最近、各種の情報を処理するための情報
処理システムとして計算機システムを利用したものが開
発され、各種の産業分野において広く用いられている。
2. Description of the Related Art Recently, a computer system has been developed as an information processing system for processing various types of information, and is widely used in various industrial fields.

【0003】このような情報処理システムでは、計算機
システムが情報処理のための動作制御を行っており、利
用者たる操作者が計算機システムに対してコマンドなど
を入力することにより、情報処理システムに所望する処
理を行わせるような構成になっている。
In such an information processing system, the computer system controls the operation for information processing, and when an operator as a user inputs a command or the like to the computer system, a desired operation is performed on the information processing system. Is performed.

【0004】この場合、操作者により入力されるコマン
ドは、通常、タブレット、マウス、ライトペンなどのポ
インティングデバイスやキーボードなどの操作により入
力される。
In this case, a command input by the operator is usually input by operating a pointing device such as a tablet, a mouse, and a light pen, or an operation of a keyboard.

【0005】例えば、コマンド入力にポインティングデ
バイスを用いた場合は、選択すべき複数のコマンドがC
RTなどの表示画面に表示され、操作者は、表示画面上
に表示され各コマンドの中から所望するものを選択する
ことで順次処理を進めるようにしている。
For example, when a pointing device is used for command input, a plurality of commands to be selected are
It is displayed on a display screen such as an RT, and the operator sequentially proceeds by selecting a desired command from the commands displayed on the display screen.

【0006】ところで、最近になって処理すべき情報
は、ますます複雑化する傾向にあり、これにともない使
用される入力コマンドの種類も多くなる傾向にある。こ
のため表示画面上に一度に表示されるコマンドの数を多
くしたり、階層的に表示するなど各種の手法を採用する
ことで多くのコマンドの取り扱いし易くするような工夫
がいろいろい考えられている。
By the way, the information to be processed has recently become more and more complicated, and accordingly, the types of input commands to be used tend to increase. For this reason, various measures have been considered to make it easier to handle many commands by adopting various methods such as increasing the number of commands displayed on the display screen at one time or displaying them hierarchically. I have.

【0007】ところが、これらの対処方は、いずれも多
くのコマンドの中から、所望するコマンドを探し出すも
のであり、操作上の負担を操作者に強いいる結果となっ
ている。
[0007] However, each of these countermeasures seeks a desired command from many commands, resulting in imposing a burden on the operator on the operation.

【0008】一方、コマンド入力にキーボードを用いた
場合は、あらかじめコマンドごとに特定の形式が決めら
れており、この形式にしたがってコマンドを入力するこ
とが求められる。そして、この形式は、システム毎に異
なっているのが通常であるため、異なるシステムを使用
する操作者にあっては、類似のコマンドであるにも拘ら
ず、異なる形式をシステム毎に記憶しておかなければな
らなくなるなど操作が極めて繁雑になり誤操作を招きや
すくなる。
On the other hand, when a keyboard is used for command input, a specific format is determined in advance for each command, and it is required to input a command according to this format. Since this format is usually different for each system, an operator using a different system stores a different format for each system in spite of a similar command. The operation becomes extremely complicated, such as the necessity of putting it, and it is easy to cause erroneous operation.

【0009】このような理由から、最近になってポイン
ティングデバイスやキーボードなどによるコマンド入力
や固定的にあらかじめ定められたフォーマットに従うコ
マンド入力に代えて、自然言語を入力することにより所
与の情報処理システムに所望する処理を行わせる試みが
実用化されている。
For these reasons, a given information processing system has recently been entered by inputting a natural language in place of command input using a pointing device, a keyboard, or the like, or command input following a fixed predetermined format. Has been put to practical use.

【0010】自然言語を入力手段とする、いわゆる会話
システムでは、自然言語による多様な表現と曖昧な表現
を取り扱えることにその特徴を有している。つまり、操
作者が自然言語で入力した文は、計算機により自動的に
所与のコマンド形式に変換されて実行されるようになる
ため、情報処理活動に本来関わりないコマンド形式まで
を操作者が覚えなければならないというような不都合を
取り除く効果がある。しかし、その一方で、自然言語で
入力される文の意味内容は、それまで行われた会話の状
況によって変化することがあるため、その状況に応じて
解釈を求める必要がある。すなわち、これは自然言語で
入力された文と所与のコマンドとを、あらかじめ1対1
で対応づけしておくことができないことを意味してい
る。
A so-called conversation system using a natural language as an input means is characterized in that it can handle various expressions and ambiguous expressions in a natural language. In other words, a sentence entered by an operator in a natural language is automatically converted into a given command format by a computer and executed, so that the operator can remember command formats that are not originally involved in information processing activities. This has the effect of eliminating the inconvenience of having to do so. However, on the other hand, the meaning of a sentence input in a natural language may change depending on the situation of a conversation that has been performed so far, and it is necessary to ask for an interpretation according to the situation. In other words, this means that a sentence entered in a natural language and a given command are pre-set one-to-one.
Means that they cannot be associated.

【0011】例えば、物理的な対象物の配置設計を計算
機によって行うCADシステムにおいては、次のような
場合が考えられる。いま、自然言語で入力される文とし
て、 (a)「机を左に移動しろ。」 (b)「椅子も。」 が入力された場合を考えると、(a)の文は、CADシ
ステムの表示画面中に存在する“机”を左に移動するこ
とを意味し、(b)の文は、(a)の文の直後に入力さ
れたことから、表示画面中に存在する“椅子”も“机”
と一緒に左に移動するということを意味している。とこ
ろが、表示画面中に“椅子”という名詞で指示できる対
象物が2つ以上存在したとすると、これらの“椅子”の
いずれであるかを決定しなければならない。
For example, in a CAD system in which the layout design of a physical object is designed by a computer, the following cases can be considered. Now, assuming that a sentence input in natural language is (a) "move the desk to the left." (B) "A chair is also input." This means that the "desk" existing in the display screen is moved to the left. Since the sentence of (b) was input immediately after the sentence of (a), the "chair" existing in the display screen was also input. "desk"
Means to move to the left with However, if there are two or more objects that can be designated by the noun “chair” in the display screen, it is necessary to determine which of these “chairs”.

【0012】そこで、このように名詞で指示できる対象
物が複数存在する場合には、どの“椅子”であるかを操
作者に問い合わせをし、操作者がこれに答える形で指示
する対象物を特定することが考えられている。しかし、
この方法では、指示できる対象物が複数存在する度に問
い合わせがなされるため、操作者が所望する操作を完遂
するのに、多くの文の入力、あるいはポインティングデ
バイスの操作を行わなければならなず、依然として操作
が繁雑になる欠点があった。
Therefore, when there are a plurality of objects which can be indicated by a noun, an operator is inquired as to which "chair" it is, and an object to which the operator indicates in response to the inquiry is given. It is considered to be specified. But,
In this method, an inquiry is made every time there are a plurality of objects that can be instructed, so that the operator must input many sentences or operate the pointing device to complete the desired operation. However, there is a disadvantage that the operation is still complicated.

【0013】一方、従来、文献(“The Repre
sentation and Use of Focu
s in a System for Underst
anding Dialogs”,B.J.Gros
z,Proc ofIJCAI”77)に開示されてい
るように、あらかじめ知識ベースに組み込まれた対象物
の知識を用いて複数の対象物から1つの対象物を決定す
るようにした方法も考えられている。すなわち、この方
法は、知識ベース中に、同時あるいは直前直後に指示さ
れ得る対象を“対象物のまとまり”として記憶してお
き、例えば、ある文で名詞Aにより対象物aが指示さ
れ、次の文で名詞Bが用いられたような場合、対象物a
が属する“対象物のまとまり”の中の対象物から名詞B
の指示する対象物を探し出すようにしたものである。
On the other hand, in the prior art, a document (“The Repre
Sentation and Use of Fuku
s in a System for Underst
and Dialogs ", BJ Gros
z, ProcofIJCAI "77), a method of determining one object from a plurality of objects using knowledge of the objects incorporated in a knowledge base in advance has been considered. In other words, in this method, in the knowledge base, objects that can be specified simultaneously or immediately before and after are stored as “units of objects”, and, for example, an object a is specified by a noun A in a certain sentence, and If noun B is used in the sentence
Noun B from the object in the "group of objects" to which
Is searched for an object designated by the user.

【0014】しかし、このような方法にあっては、あら
かじめ知識ベース中に“対象物のまとまり”を定義して
おかなければならず、このことは、知識ベースを人間が
構成する際して、これと同時あるいは直前直後に指示さ
れ得るものをあらかじめ考慮しなければならず、知識ベ
ースの構築が非常に難しいものになる問題点があった。
However, in such a method, a "group of objects" must be defined in the knowledge base in advance, which means that when a knowledge base is constructed by a human, At the same time, or what can be instructed immediately before and after, it is necessary to consider in advance, and there is a problem that construction of a knowledge base becomes very difficult.

【0015】[0015]

【発明が解決しようとする課題】このように従来の自然
言語文を入力する、いわゆる会話システムでは、指示で
きる対象物が複数存在する場合に、操作者が所望する対
象物を特定するまでに多大の手間を必要とし、操作上の
負担を操作者に強いいるようになり、また、知識ベース
に組み込まれた対象物の知識を用いて複数の対象物から
1つの対象物を決定するものでは、知識ベースを作成す
るのに、同時あるいは直前直後に指示され得る対象をす
べて考慮しなければならず、知識ベースの構築が非常に
難しいものになる問題点があった。
As described above, in a so-called conversation system in which a conventional natural language sentence is input, when there are a plurality of targets that can be designated, it takes a great deal of time for the operator to specify the desired target. In the case of determining one object from a plurality of objects by using the knowledge of the objects incorporated in the knowledge base, In creating a knowledge base, all objects that can be instructed at the same time or immediately before and after must be taken into consideration, and there is a problem that construction of the knowledge base becomes very difficult.

【0016】本発明は、上記事情に鑑みてなされたもの
で、指示できる対象物が複数存在する場合も所望する対
象物の決定を簡単な操作で実現できる会話システムを提
供することを目的とする。
The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a conversation system capable of determining a desired object by a simple operation even when there are a plurality of objects that can be designated. .

【0017】[0017]

【課題を解決するための手段】本発明は、自然言語によ
り指示を与えることにより機器操作を行える会話システ
ムにおいて、自然言語文を入力する入力手段と、この入
力手段の入力文を格フレーム表現に変換処理する格フレ
ーム表現変換処理手段と、この格フレーム表現変換処理
手段で変換処理された格フレーム表現を会話履歴として
順次格納する会話履歴格納手段と、表示画面上での複数
の対象物間の相対的な距離情報を記憶する距離情報記録
手段と、入力文の格フレーム表現中に動作についての語
が存在する場合には、最も最近入力された格フレーム表
現中の対象物を求め、存在しない場合には、入力文に明
示されている対象物と兄弟関係にある対象物の集合に属
する対象物を含む、最も最近入力された格フレーム表現
を前記会話履歴格納手段に格納された格フレーム表現を
参照して特定するとともに、該特定された格フレーム表
現に明示された対象物を求め、前記距離情報記憶手段に
格納されている相対的な距離情報に基づいて、上記処理
により求められた対象物に最も距離的に近いインスタン
スを、入力文の格フレーム表現中に明示される対象物と
して決定する表現補間手段と、この表現補間手段により
補間された出力を所定のコマンド形式に変換処理するコ
マンド変換手段と、このコマンド変換手段からのコマン
ドに基づいて表示画面を制御する出力手段とにより構成
している。
SUMMARY OF THE INVENTION The present invention provides a conversation system in which a device can be operated by giving an instruction in a natural language, and an input means for inputting a natural language sentence, and the input sentence of the input means is converted into a case frame expression. Case frame expression conversion processing means for performing conversion processing, conversation history storage means for sequentially storing the case frame expressions converted by the case frame expression conversion processing means as a conversation history, and a plurality of objects on the display screen. A distance information recording unit for storing relative distance information; and a case in which an operation word is present in the case frame expression of the input sentence. In the case, the most recently input case frame expression including an object belonging to a set of objects having a sibling relationship with the object specified in the input sentence is referred to as the conversation history case. While specifying with reference to the case frame expression stored in the means, obtains the object specified in the specified case frame expression, based on the relative distance information stored in the distance information storage means. An expression interpolating means for determining an instance closest in distance to the object obtained by the above processing as an object specified in the case frame expression of the input sentence; and an output interpolated by the expression interpolating means. And command output means for controlling the display screen based on a command from the command conversion means.

【0018】[0018]

【作用】この結果、本発明によれば指示できる対象物が
複数存在する場合に、指示対象となる対象物の同定を対
象物の相対的な距離関係を用いて行うようになるので、
所望する対象物の決定を随時容易にしかも自動的に行う
ことができることになり、しかも、操作者は操作指示を
自然言語のみで行えるため、異なるシステムごとにコマ
ンド形式を記憶しなければならないという不都合を除く
ことができる。
As a result, according to the present invention, when there are a plurality of target objects that can be pointed, identification of the target object is performed using the relative distance relationship between the target objects.
The desired object can be determined easily and automatically at any time, and since the operator can give an operation instruction only in a natural language, the command format must be stored for each different system. Can be excluded.

【0019】[0019]

【実施例】以下、本発明の一実施例を図面に従い説明す
る。
An embodiment of the present invention will be described below with reference to the drawings.

【0020】図1は、同実施例に関する会話システムの
概略的構成を示すものである。図において、1は自然言
語文の入力を可能にした入力部で、この入力部1は、キ
ーボード2、マウス3などを接続している。
FIG. 1 shows a schematic configuration of a conversation system according to the embodiment. In the figure, reference numeral 1 denotes an input unit for enabling input of a natural language sentence. The input unit 1 is connected to a keyboard 2, a mouse 3, and the like.

【0021】入力部1には、形態素解析部4、構文解析
部5、意味解析部6を順に接続している。これら形態素
解析部4、構文解析部5、意味解析部6は、入力部1よ
り入力された自然言語文を、動詞に対応する述語と、そ
の動詞に係る格助詞に対応する格スロットから構成され
る格フレーム表現に変換処理するためのものである。こ
こで、格スロットは、対応する格助詞に前接する名詞が
かかる格スロットのフィラーとして設定される。また、
自然言語文の統語・意味的な解析は、従来より用いられ
ている方法が流用され、例えば、形態素解析部4での統
語的な解析としての形態素解析(入力文を単語ごとに分
割する処理)、構文解析部5での構文解析(文節間の依
存的構造を解析する処理)は、文献(「自然言語処理の
基礎技術」、野村浩郷、電子情報通信学会編)に示され
るような処理が用いられ、また、意味解析部6での意味
的な解析は、文献(「日本語情報処理」、長尾真、電子
通信学会編)に示されるような処理が用いられる。
The input unit 1 is connected to a morphological analysis unit 4, a syntax analysis unit 5, and a semantic analysis unit 6 in this order. The morphological analysis unit 4, syntax analysis unit 5, and semantic analysis unit 6 convert a natural language sentence input from the input unit 1 into a predicate corresponding to a verb and a case slot corresponding to a case particle associated with the verb. This is for converting to a case frame expression. Here, a case slot is set as a filler of a case slot in which a noun preceding the corresponding case particle is applied. Also,
For the syntactic and semantic analysis of natural language sentences, a conventionally used method is diverted. For example, a morphological analysis as a syntactic analysis in the morphological analysis unit 4 (processing of dividing an input sentence for each word) The parsing (processing for analyzing the dependency structure between clauses) by the parsing unit 5 is performed as described in the literature (“Basic Technology of Natural Language Processing”, Hirosato Nomura, edited by the Institute of Electronics, Information and Communication Engineers). The semantic analysis in the semantic analysis unit 6 uses processing as described in the literature (“Japanese Information Processing”, Makoto Nagao, edited by the Institute of Electronics, Communication and Communication Engineers).

【0022】そして、これら形態素解析部4、構文解析
部5、意味解析部6で格フレーム表現に変換処理された
出力は、省略表現補間部7に送られる。
The output converted to the case frame expression by the morphological analysis unit 4, syntax analysis unit 5, and semantic analysis unit 6 is sent to the abbreviation expression interpolation unit 7.

【0023】省略表現補間部7は、会話履歴9と相対距
離記憶10の内容を参考にして入力文に明示されていな
い情報の補間処理を行うものである。この場合、省略表
現補間部7は、補間処理の実行にあたり知識ベース12
中の知識を参照するようにしている。
The abbreviation expression interpolation unit 7 performs an interpolation process of information not specified in the input sentence with reference to the conversation history 9 and the contents of the relative distance storage 10. In this case, the abbreviation expression interpolating unit 7 executes the interpolation process by using the knowledge base 12.
They refer to the knowledge inside.

【0024】省略表現補間部7で補間処理された格フレ
ーム表現の出力は、コマンド変換部8に送られる。この
コマンド変換部8は、補間処理された出力を、対象とす
る情報処理システムのコマンド形式に変換する処理を行
うものである。この場合、コマンド変換部8は、変換処
理の実行にあたり知識ベース12中の知識を参照するよ
うにしている。
The output of the case frame expression interpolated by the abbreviation expression interpolation unit 7 is sent to the command conversion unit 8. The command conversion unit 8 performs a process of converting the output subjected to the interpolation processing into a command format of a target information processing system. In this case, the command conversion unit 8 refers to the knowledge in the knowledge base 12 when executing the conversion processing.

【0025】コマンド変換部8でコマンド変換された出
力は、タスク実行部13に送られる。このタスク実行部
13は、画像モデル14を参照しながら表示画面上の対
象物を実際に移動するもので、ここでは所与の情報処理
システムが採用される。
The output converted by the command conversion unit 8 is sent to the task execution unit 13. The task execution unit 13 actually moves an object on the display screen while referring to the image model 14, and here, a given information processing system is employed.

【0026】画像モデル14は、タスク実行に際して対
象となる対象物の画面表示上の絶対位置や大きさ、形状
の概要などを記憶しておき、入力文の意味内容とあわせ
てモデルを変更するようにしている。また、タスク実行
によって変化される対象物間の相対的な距離は、逐一相
対距離抽出部11によって抽出され、相対距離記憶10
に記憶されるようになっている。
The image model 14 stores the absolute position, size, outline of the shape, and the like of the target object on the screen display at the time of executing the task, and changes the model according to the meaning of the input sentence. I have to. Further, the relative distance between the objects changed by the task execution is extracted by the relative distance extracting unit 11 one by one, and stored in the relative distance storage 10.
Is stored.

【0027】そして、タスク実行部13からの出力は、
出力部15に送られ、ディスプレイ16の表示画面上に
表示される。
The output from the task execution unit 13 is
It is sent to the output unit 15 and displayed on the display screen of the display 16.

【0028】図2は知識ベース12での知識の表現形式
を示したものである。この場合、知識ベース12での知
識は、複数のスロットから構成され、各スロットはスロ
ット名とスロット値からなっている。つまり、複数のス
ロットの組合せが一つの知識となっている。ここで、ス
ロット名1は、各スロットを区別するための名前、スロ
ット値は、スロットに設定されている値のことである。
そして、図3(a)は、クラス“机”を表すフレームを
示し、“机”は対象物を上位クラスとして持ち、インス
タンスとして“机1”を持つことを表している。ここ
で、“superC”は上位クラスをスロット値として
設定するスロット名であり、“ins”はインスタンス
をスロット値として設定するスロットである。また、図
3(b)は、インスタンス“机1”を表すフレームを示
している。この場合、“机1”は“机”をクラスとして
持ち、“テーブルクロス1”を従属することを表してい
る。また、“cls”はそのインスタンスが属するクラ
ス名を設定するスロット、“with”は所属関係を表
すスロット名である。
FIG. 2 shows an expression format of knowledge in the knowledge base 12. In this case, the knowledge in the knowledge base 12 is composed of a plurality of slots, and each slot is composed of a slot name and a slot value. That is, a combination of a plurality of slots is one piece of knowledge. Here, the slot name 1 is a name for distinguishing each slot, and the slot value is a value set for the slot.
FIG. 3A shows a frame representing a class “desk”, in which “desk” has an object as an upper class and has “desk 1” as an instance. Here, “superC” is a slot name for setting an upper class as a slot value, and “ins” is a slot for setting an instance as a slot value. FIG. 3B shows a frame representing the instance “desk 1”. In this case, “Desk 1” has “Desk” as a class, and indicates that “Table cloth 1” is subordinate. “Cls” is a slot for setting a class name to which the instance belongs, and “with” is a slot name for indicating a belonging relationship.

【0029】図4は知識ベース12での知識として“移
動”の表現例を示している。この場合、対象スロット、
方向スロット、程度スロット、コマンド形式スロット
を、持ち、それぞれのスロット値が変数$x,$y,$
zで対応付けられている。すなわち、コマンドを取り出
すときに、コマンド形式スロットのスロット値を取り出
すが、このときコマンド内の変数はそれぞれ他のスロッ
トのスロット値と対応づけられることを意味している。
FIG. 4 shows an example of the expression “movement” as knowledge in the knowledge base 12. In this case, the target slot,
It has a direction slot, a degree slot, and a command format slot, and each slot value is a variable {x, {y,}
It is associated with z. That is, when the command is taken out, the slot value of the command format slot is taken out, which means that the variables in the command are respectively associated with the slot values of other slots.

【0030】これにより、知識ベース12内での知識表
現形式の概要を図示すると図13(a)(b)のように
表すことができる。
Thus, the outline of the knowledge expression format in the knowledge base 12 can be represented as shown in FIGS. 13 (a) and 13 (b).

【0031】次に、以上のように構成した実施例の動作
を説明する。
Next, the operation of the embodiment configured as described above will be described.

【0032】いま、入力部1より操作者による自然言語
が入力されると、この自然言語に基づいた文について、
形態素解析部4、構文解析部5、意味解析部6でそれぞ
れ形態解析、構文解析、意味解析が実行され、格フレー
ム表現に変換処理される。
Now, when a natural language is input by the operator from the input unit 1, a sentence based on this natural language is
The morphological analysis unit 4, the syntax analysis unit 5, and the semantic analysis unit 6 perform morphological analysis, syntactic analysis, and semantic analysis, respectively, and are converted into case frame expressions.

【0033】この状態から、省略表現補間部7により入
力文の補間処理が実行される。
From this state, the abbreviation expression interpolation unit 7 executes the interpolation processing of the input sentence.

【0034】図5は、省略表現補間部7での処理を示す
フローチャートである。この場合、省略表現補間部7
は、意味解析結果である格フレーム表現に基づいて省略
情報を補間するようになる。まず、入力される格フレー
ム表現中に“動作”についての語が存在するか判定する
(ステップA1)。
FIG. 5 is a flowchart showing the processing in the abbreviation expression interpolation unit 7. In this case, the abbreviation interpolation unit 7
Will interpolate the omission information based on the case frame expression that is the result of the semantic analysis. First, it is determined whether or not a word about “operation” exists in the input case frame expression (step A1).

【0035】ここで、存在する場合は、処理対象の格フ
レーム表現に明示されている対象物のクラスをaとし
(ステップA2)、次いで、処理対象の格フレーム表現
をFとする(ステップA3)。
If it exists, the class of the object specified in the case frame expression to be processed is set to a (step A2), and the case frame expression to be processed is set to F (step A3). .

【0036】そして、会話履歴9を参考にして最も最近
入力された格フレーム表現中の対象物をbとする(ステ
ップA4)。この場合、会話履歴9は、一例として図8
に示すように、それまで入力されてきた操作者の入力文
の解析結果を格納している。この例では、後述する図1
1の(a)に示す入力文の処理し終えた直後の様子を表
しており、図12の(a)に対応する格フレーム表現が
格納される。ポインタPは直前の文の格フレーム表現を
指し示し、会話が進むごとに、各時点において処理され
た格フレーム表現を順次格納するとともに、ポインタP
もそれに対応して移動していく。したがって、ここで
は、ポインタPで指し示されている格フレーム表現にお
ける対象物bを取り出すようになる。
The object in the case frame expression most recently input with reference to the conversation history 9 is set to b (step A4). In this case, the conversation history 9 is shown in FIG.
As shown in (1), the analysis result of the input sentence of the operator input so far is stored. In this example, FIG.
1A shows a state immediately after the processing of the input sentence shown in FIG. 1A is completed, and stores a case frame expression corresponding to FIG. The pointer P points to the case frame expression of the immediately preceding sentence. Each time the conversation progresses, the case frame expression processed at each point in time is sequentially stored.
Move accordingly. Therefore, in this case, the object b in the case frame expression indicated by the pointer P is extracted.

【0037】次いで、ステップA8を実行する。このス
テップA8では、aに属するインスタンスを知識ベース
12より取り出すとともに、相対距離記憶10を参照し
て対象物bに最も近いインスタンスを求め、これをcと
する。この場合、相対距離記憶10は、タスク実行部1
3から対象物間の相対距離を抽出する相対距離抽出部1
1の出力に基づいて図7に示すように異なる対象物の中
心の間の相対距離を記憶している。図示例では、“机
1”と“椅子1”が100、“机1”と“椅子2”が6
00、“机1”と“椅子3”が700、“椅子1”と
“椅子2”が650、“椅子1”と“椅子3”が75
0、“椅子2”と“椅子3”が50という距離にあるこ
とを示している。ここで、距離の単位は表示ディスプレ
イ上の横あるいは縦の画素を一単位とする。この理由は
あくまで相対的な大小関係が得られればよいからであ
る。そして、ある入力文が処理されて会話が進むごと
に、表示画面は更新されるが、各時点における相対距離
は記憶している。また、ポインタB1,E1は、それぞ
れ直前の入力文が処理される直前における表示画面の相
対距離を示すもので、一方、ポインタB2,E2は、そ
れぞれ直前の入力文が処理された直後における表示画面
の相対距離を示すものである。したがって、ここでは、
aに属するインスタンスが複数存在する場合、そのいず
れが正しい対象物であるかをポインタB1とE1で指し
示される相対距離に基づいて求め、これを対象物bと最
も距離が近いインスタンスcとする。
Next, step A8 is executed. In step A8, an instance belonging to a is extracted from the knowledge base 12, and an instance closest to the object b is obtained by referring to the relative distance storage 10, and is set to c. In this case, the relative distance storage 10 stores the task execution unit 1
Relative distance extraction unit 1 for extracting the relative distance between the objects from 3
The relative distance between the centers of different objects is stored as shown in FIG. In the illustrated example, “desk 1” and “chair 1” are 100, and “desk 1” and “chair 2” are 6
00, “desk 1” and “chair 3” are 700, “chair 1” and “chair 2” are 650, and “chair 1” and “chair 3” are 75.
0, indicating that "chair 2" and "chair 3" are at a distance of 50. Here, one unit of the distance is a horizontal or vertical pixel on the display. The reason is that it is only necessary to obtain a relative magnitude relation. The display screen is updated each time a certain input sentence is processed and the conversation proceeds, but the relative distance at each time point is stored. The pointers B1 and E1 indicate the relative distances of the display screen immediately before the immediately preceding input sentence is processed. On the other hand, the pointers B2 and E2 indicate the display screen immediately after the immediately preceding input sentence is processed, respectively. It shows the relative distance of. Therefore, here
If there are a plurality of instances belonging to a, which one is the correct object is determined based on the relative distances indicated by the pointers B1 and E1, and this is set as the instance c closest to the object b.

【0038】そして、Fの対象aをcで書き換え(ステ
ップA9)、Fを結果として(ステップA10)、コマ
ンド変換部8に出力するようになる。
Then, the object a of F is rewritten with c (step A9), and F is output to the command conversion section 8 as a result (step A10).

【0039】一方、ステップA1で、入力の格フレーム
表現中に“動作”についての語が存在しないと判断され
た場合は、省略情報を補間するため、ステップA5が実
行される。ステップA5では、入力中に明示されている
対象物のクラスをaとし、知識ベース12を参照するこ
とにより、このクラスaと兄弟関係にあるすべての対象
物のクラスを見付け、これら対象物の集合をAとする。
On the other hand, if it is determined in step A1 that there is no word for "operation" in the input case frame expression, step A5 is executed to interpolate the omission information. In step A5, the class of the object specified in the input is set to a, and by referring to the knowledge base 12, the classes of all the objects having a sibling relationship with this class a are found. Is A.

【0040】次に、会話履歴9を参照してフレーム表現
の最も最近に入力されたものを調べ、Aに属する対象物
が明示されているフレーム表現を探す。このフレーム表
現をFとし、またそこで参照されている対象物をbとし
(ステップA6)、さらに、フレーム表現F中のbをa
で置き換える(ステップA7)。
Next, the most recently input frame expression is checked with reference to the conversation history 9 to find a frame expression in which an object belonging to A is specified. This frame representation is F, and the object referred to there is b (step A6), and b in the frame representation F is a
(Step A7).

【0041】この状態から、上述したと同様にしてステ
ップA8に進み、aに属するインスタンスを知識ベース
12より取り出すとともに、相対距離記憶10を参照し
て対象物bに最も近いインスタンスを求め、これをcと
し、Fの対象aをcで書き換え(ステップA9)、Fを
結果として(ステップA10)、コマンド変換部8に出
力するようになる。
From this state, the process proceeds to step A8 in the same manner as described above, the instance belonging to a is extracted from the knowledge base 12, and the instance closest to the object b is obtained by referring to the relative distance storage 10, and this is obtained. It is assumed that c is set, and the target a of F is rewritten with c (step A9), and F is output to the command conversion unit 8 as a result (step A10).

【0042】図6は、コマンド変換部8での処理を示す
フローチャートである。コマンド変換部8は、省略表現
補間部7より出力される省略情報が補間された格フレー
ム表現を、タスク実行部13(情報処理システム)での
コマンドに変換する。この場合、格フレーム表現の格と
なっている動詞に対応する知識を知識ベース12から取
り出し、この知識をDとする(ステップB1)。次い
で、格スロットのスロット値には、知識ベースの中の知
識の名前が格納されているから、この名前を手掛かりに
格スロットの値と対応する知識Eを取り出し(ステップ
B21)、知識Dの対応するスロット値にEを設定す
る。このような動作を格フレーム表現のすべての格スロ
ットについて繰り返す(ステップB2)。これにより、
コマンド形式スロット中の変数にも適宜値が設定されて
いく。そして、最後にコマンド形式スロットのスロット
値を取り出し、これをコマンドとして出力するようにな
る(ステップB3)。
FIG. 6 is a flowchart showing the processing in the command conversion section 8. The command conversion unit 8 converts the case frame expression in which the omitted information output from the omitted expression interpolation unit 7 has been interpolated into a command in the task execution unit 13 (information processing system). In this case, the knowledge corresponding to the verb that is the case in the case frame expression is extracted from the knowledge base 12, and this knowledge is set to D (step B1). Next, since the name of the knowledge in the knowledge base is stored in the slot value of the case slot, the knowledge E corresponding to the value of the case slot is extracted using this name as a clue (step B21), and the correspondence of the knowledge D is obtained. Set E to the slot value to be used. Such an operation is repeated for all case slots in the case frame expression (step B2). This allows
The values in the variables in the command format slot are set as appropriate. Finally, the slot value of the command format slot is taken out and output as a command (step B3).

【0043】次に、以上の処理を実際の例に基づいて説
明する。
Next, the above processing will be described based on an actual example.

【0044】例えば、ディスプレイ16の表示画面上に
図10(a)に示すような状態が表示されているものと
し、この状態から、最初に図11の(a)に示す自然言
語文が入力されたとすると、この文は、形態素解析部
4、構文解析部5、意味解析部6により形態素解析、構
文解析、意味解析が行われ、図12の(a)に示すよう
に、入力文の動詞に対応する述語と、その動詞に係る格
助詞に対応する格スロットから構成される格フレーム表
現として出力される。
For example, it is assumed that a state as shown in FIG. 10A is displayed on the display screen of the display 16, and from this state, a natural language sentence shown in FIG. Then, this sentence is subjected to morphological analysis, syntactic analysis, and semantic analysis by the morphological analysis unit 4, syntactic analysis unit 5, and semantic analysis unit 6, and as shown in FIG. It is output as a case frame expression composed of the corresponding predicate and the case slot corresponding to the case particle associated with the verb.

【0045】なお、ここでの形態素解析部4、構文解析
部5、意味解析部6での動作は、本発明の要旨でなく、
しかも、上述したように周知の技術なので、その説明は
省略する。
The operations of the morphological analysis unit 4, the syntax analysis unit 5, and the semantic analysis unit 6 are not the gist of the present invention, but
In addition, since it is a well-known technique as described above, its description is omitted.

【0046】そして、この格フレーム表現で表される意
味表現を特定のシステムに対応するコマンド形式に変換
され、これをCADシステムなどの所与の情報処理シス
テムでの実際の実行処理が行われる。
Then, the semantic expression represented by the case frame expression is converted into a command format corresponding to a specific system, and this is subjected to actual execution processing in a given information processing system such as a CAD system.

【0047】まず、格フレーム表現は、省略表現補間部
7に送られる。すると、上述した図5に示すフローチャ
ートにおいて、始めにステップA2が実行され、aに
“机”が設定される。次に、ステップA3とステップA
4を実行することにより、Fには図12の(a)で示す
格フレーム表現が設定される。一方、この時の入力文は
最初のものであるので、会話履歴9には何も設定されて
おらず、bは何も設定されない。
First, the case frame expression is sent to the abbreviation expression interpolation unit 7. Then, in the above-described flowchart shown in FIG. 5, step A2 is executed first, and “desk” is set to a. Next, step A3 and step A
By executing the step 4, the case frame expression shown in FIG. On the other hand, since the input sentence at this time is the first one, nothing is set in the conversation history 9 and nothing is set in b.

【0048】そして、ステップA8に進む。この場合、
知識ベース12中には、クラスa(=“机”)に属する
インスタンスが“机1”しか存在しないので、cには
“机1”が設定されることになる。また、ステップA9
で、この“机1”を図12の(a)で示す格フレーム表
現Fの対象“机”と置き換え、この結果をコマンド変換
部8に出力するようになる。
Then, the process proceeds to step A8. in this case,
In the knowledge base 12, only "desk 1" has an instance belonging to the class a (= "desk"), so that "desk 1" is set in c. Step A9
Then, this “desk 1” is replaced with the target “desk” of the case frame expression F shown in FIG. 12A, and the result is output to the command conversion unit 8.

【0049】コマンド変換部8では、上述した図5に示
すフローチャートにおいて、この時の格フレーム表現の
格となる動詞が“移動”であるので、知識ベース12よ
り知識“移動”(図4に図示)を取り出すようになる
(ステップB1)。そして、ステップB2で、格フレー
ム表現のすべての格スロットについて、知識“移動”の
スロットが順次設定される。すなわち、対象“机1”は
対象スロット、方向“左”は方向スロットへそれぞれ設
定される。この後、ステップB3で知識“移動”のコマ
ンド形式スロットを取り出すと、図9の(a)なるコマ
ンドが得られる。そして、このコマンドをタスク実行部
13に引き渡すことにより、図10の(a)の表示画面
は、図10の(b)に示す状態に更新される。
In the command conversion unit 8, in the flowchart shown in FIG. 5 described above, the case verb in the case frame expression at this time is “move”. ) Is taken out (step B1). Then, in step B2, slots of knowledge "move" are sequentially set for all case slots of the case frame expression. That is, the target “desk 1” is set to the target slot, and the direction “left” is set to the direction slot. Thereafter, when the command format slot of knowledge "move" is taken out in step B3, a command shown in FIG. 9A is obtained. Then, by passing this command to the task execution unit 13, the display screen of FIG. 10A is updated to the state shown in FIG. 10B.

【0050】次に、図11の(b)なる自然言語文が入
力されると、意味解析の結果は図12の(b)に示すよ
うな表現になり、これが、省略表現補間部7に入力され
る。この表現では動詞が省略されているため、会話履歴
9に格納されている格フレーム表現を調べて情報を補間
するようになる。この場合、明示されている名詞は“椅
子”であるので、ステップA5では、クラスaは“椅
子”となる。また、知識ベース12中で、対象物“椅
子”と兄弟関係にあるクラスの集合をAとしたとき、こ
こでは、そのような対象物は“机”だけであるから、A
={“机”}となる。このAに属する対象物が明示され
ている入力文は会話履歴9でポインタPが指し示す格フ
レーム表現であるから、これがFに設定される。
Next, when the natural language sentence shown in FIG. 11B is input, the result of the semantic analysis is expressed as shown in FIG. 12B, which is input to the abbreviated expression interpolation unit 7. Is done. Since the verb is omitted in this expression, the case frame expression stored in the conversation history 9 is checked to interpolate the information. In this case, since the specified noun is "chair", the class a becomes "chair" in step A5. Further, when a set of classes having a sibling relationship with the object “chair” in the knowledge base 12 is A, such an object is only “desk”.
= {“Desk”}. Since the input sentence in which the object belonging to A is specified is the case frame expression indicated by the pointer P in the conversation history 9, this is set to F.

【0051】会話履歴9(図7)におけるポインタPが
指し示す格フレーム表現において、b=“机1”、a=
“椅子”として、ステップA7でbをaで置き換え、こ
れにより図14の(b)なる表現が得られる。
In the case frame expression indicated by the pointer P in the conversation history 9 (FIG. 7), b = “desk 1”, a =
In step A7, “b” is replaced with “a” as “chair”, whereby the expression shown in FIG. 14B is obtained.

【0052】次にステップA8で、aに属するインスタ
ンスが“椅子1”,“椅子2”,“椅子3”の3つある
ので、これらの内いずれが正しいか同定する必要があ
る。相対距離記憶B1,E1が指し示す距離裡において
b(=“机1”)と最も近いのは、この場合“椅子1”
であるので、これをcとする。
Next, in step A8, there are three instances belonging to "a", "chair 1", "chair 2", and "chair 3", and it is necessary to identify which of them is correct. In the distance indicated by the relative distance memories B1 and E1, b (= “desk 1”) is closest to “chair 1” in this case.
Therefore, this is set to c.

【0053】最後に、ステップA9で、格フレーム表現
Fの“机1”が“椅子1”に置き換えられ、コマンド変
換部8に出力される。
Finally, in step A 9, “desk 1” in the case frame expression F is replaced with “chair 1” and output to the command conversion section 8.

【0054】コマンド変換部8では、上述した図6に示
すフローチャートにおいて、この時の格となる動詞は
“移動”であるので、知識ベース12より知識“移動”
(図4に図示)を取り出すようになる(ステップB
1)。そして、ステップB2で、格フレーム表現のすべ
ての格スロットについて、知識“移動”のスロットが順
次設定される。すなわち、対象“椅子1”は対象スロッ
トへ、方向“左”は方向スロットへそれぞれ設定され
る。この後、ステップB3で知識“移動”のコマンド形
式スロットを取り出すと、図9の(b)なるコマンドが
得られる。このコマンドをタスク実行部13に引き渡す
ことにより、“椅子1”が移動され、図10の(b)の
表示画面は、図10の(c)に示す状態に更新できるよ
うになる。
In the command conversion unit 8, in the flowchart shown in FIG. 6, the case verb at this time is “move”.
(Shown in FIG. 4) (step B)
1). Then, in step B2, slots of knowledge "move" are sequentially set for all case slots of the case frame expression. That is, the target “chair 1” is set to the target slot, and the direction “left” is set to the direction slot. Thereafter, when the command format slot of knowledge "move" is taken out in step B3, a command shown in FIG. 9B is obtained. By transferring this command to the task execution unit 13, the "chair 1" is moved, and the display screen of FIG. 10B can be updated to the state shown in FIG. 10C.

【0055】なお、本発明は、上記実施例にのみ限定さ
れず、要旨を変更しない範囲で適宜変形して実施でき
る。例えば、上述した実施例では、対象物が直接名詞で
指示される場合について述べたが、助詞“は”で提示さ
れる話題などを利用して、その話題と距離的に最も近い
対象物を優先して同定するような処理を採用することも
可能である。また、“椅子も”の入力処理に際して、直
前の指示対象物と現時点での指示対象物との間の距離関
係から、空間的な焦点領域を定め、その焦点領域内の移
動可能な対象物を同時に移動するという処理を追加する
ことも可能である。すなわち、直前の指示対象物が“机
1”で、現時点の指示対象物が“椅子1”である時、そ
れら両方と近い対象物を同時に移動することである。
It should be noted that the present invention is not limited to the above-described embodiment, but can be carried out by appropriately modifying it without changing the gist. For example, in the above-described embodiment, the case where the target object is indicated by a direct noun has been described. However, by using the topic presented by the particle “ha”, the target object closest to the topic in terms of distance is given priority. It is also possible to employ a process for identifying the data. Also, in the input processing of “chair”, a spatial focus area is determined from the distance relationship between the immediately preceding pointing object and the current pointing object, and a movable object within the focusing area is determined. It is also possible to add a process of moving at the same time. That is, when the immediately preceding pointing object is “desk 1” and the pointing object at the present time is “chair 1”, the objects near both of them are simultaneously moved.

【0056】[0056]

【発明の効果】本発明によれば指示できる対象物が複数
存在する場合に、指示対象となる対象物の同定を対象物
の相対的な距離関係を用いて行うようになるので、所望
する対象物の決定を随時容易にしかも自動的に行うこと
ができる。しかも、操作者は操作指示を自然言語のみで
行えるため、異なるシステムごとにコマンド形式を記憶
しなければならないという不都合を除くことができるな
ど、円滑な会話システムを構成することが可能となる。
According to the present invention, when there are a plurality of targets that can be pointed, the target to be pointed is identified by using the relative distance relationship between the targets. The determination of an object can be made easily and automatically at any time. In addition, since the operator can give operation instructions only in natural language, it is possible to configure a smooth conversation system such as eliminating the inconvenience of having to store a command format for each different system.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例の概略的な構成を表す図。FIG. 1 is a diagram showing a schematic configuration of an embodiment of the present invention.

【図2】知識ベース内の知識の表現形式を示した図。FIG. 2 is a diagram showing an expression format of knowledge in a knowledge base.

【図3】知識ベース内の知識表現の具体例を示した図。FIG. 3 is a diagram showing a specific example of a knowledge expression in a knowledge base.

【図4】知識ベース内の知識表現の具体例を示した図。FIG. 4 is a diagram showing a specific example of a knowledge expression in a knowledge base.

【図5】省略表現補間部の処理を説明するためのフロー
チャート。
FIG. 5 is a flowchart for explaining processing of an abbreviation expression interpolation unit.

【図6】コマンド変換部の処理を説明するためのフロー
チャート。
FIG. 6 is a flowchart for explaining processing of a command conversion unit.

【図7】相対距離記憶の一部を示した図。FIG. 7 is a diagram showing a part of relative distance storage.

【図8】会話履歴の一部を示した図。FIG. 8 is a diagram showing a part of a conversation history.

【図9】図11に示す入力文に対応するコマンドを表す
図。
FIG. 9 is a view showing a command corresponding to the input sentence shown in FIG. 11;

【図10】本発明の実施例における表示画面の一例を表
す図。
FIG. 10 is a diagram illustrating an example of a display screen according to the embodiment of the present invention.

【図11】入力文の一例を示す図。FIG. 11 is a diagram showing an example of an input sentence.

【図12】図11の入力文を形態素解析、構文解析、意
味解析を行った格フレーム表現を表す図。
FIG. 12 is a diagram showing a case frame expression obtained by performing morphological analysis, syntax analysis, and semantic analysis on the input sentence of FIG. 11;

【図13】知識ベース内の概要を示した図。FIG. 13 is a diagram showing an outline in a knowledge base.

【図14】省略表現補間部で省略情報が補間された様子
を表す図。
FIG. 14 is a diagram illustrating a state in which omission information is interpolated by an omission expression interpolating unit.

【符号の説明】[Explanation of symbols]

1…入力部、2…キーボード、3…マウス、4…形態素
解析部、5…構文解析部、6…意味解析部、7…省略表
現補間部、8…コマンド変換部、9…会話履歴、10…
相対距離記憶、11…相対距離抽出部、12…知識ベー
ス、13…タスク実行部、14…画像モデル、15…出
力部、16…ディスプレイ。
DESCRIPTION OF SYMBOLS 1 ... input part, 2 ... keyboard, 3 ... mouse, 4 ... morphological analysis part, 5 ... syntax analysis part, 6 ... semantic analysis part, 7 ... abbreviation interpolation part, 8 ... command conversion part, 9 ... conversation history, 10 …
Relative distance storage, 11 relative distance extraction unit, 12 knowledge base, 13 task execution unit, 14 image model, 15 output unit, 16 display.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 浮田輝彦、住田一男、木下聡、天野真 家、佐野洋、「自然言語入力による機器 操作案内システム」、ICOT研究速 報、No.563 (1988) ──────────────────────────────────────────────────続 き Continuation of the front page (56) References Teruhiko Ukita, Kazuo Sumita, Satoshi Kinoshita, Makie Amano, Hiroshi Sano, “Natural Language Input Device Operation Guidance System”, ICOT Research Bulletin, No. 563 (1988)

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 自然言語により指示を与えることにより
機器操作を行える会話システムにおいて、自然言語文を
入力する入力手段と、この入力手段の入力文を格フレー
ム表現に変換処理する格フレーム表現変換処理手段と、
この格フレーム表現変換処理手段で変換処理された格フ
レーム表現を会話履歴として順次格納する会話履歴格納
手段と、表示画面上での複数の対象物間の相対的な距離
情報を記憶する距離情報記憶手段と、入力文の格フレー
ム表現中に動作についての語が存在する場合には、最も
最近入力された格フレーム表現中の対象物を求め、存在
しない場合には、入力文に明示されている対象物と兄弟
関係にある対象物の集合に属する対象物を含む、最も最
近入力された格フレーム表現を前記会話履歴格納手段に
格納された格フレーム表現を参照して特定するととも
に、該特定された格フレーム表現に明示された対象物を
求め、前記距離情報記憶手段に格納されている相対的な
距離情報に基づいて、上記処理により求められた対象物
に最も距離的に近いインスタンスを、入力文の格フレー
ム表現中に明示される対象物として決定する表現補間手
段と、この表現補間手段により補間された出力を所定の
コマンド形式に変換処理するコマンド変換手段と、この
コマンド変換手段からのコマンドに基づいて表示画面を
制御する出力手段とを具備したことを特徴とする会話シ
ステム。
An input means for inputting a natural language sentence and a case frame expression conversion processing for converting an input sentence of the input means into a case frame expression in a conversation system capable of operating a device by giving an instruction in a natural language. Means,
Conversation history storage means for sequentially storing case frame expressions converted by the case frame expression conversion processing means as a conversation history; and distance information storage for storing relative distance information between a plurality of objects on a display screen. If the word about the action is present in the case frame expression of the input sentence, the object in the most recently input case frame expression is obtained. Otherwise, the object is specified in the input sentence. The most recently input case frame expression including an object belonging to a set of objects having a sibling relationship with the object is specified with reference to the case frame expression stored in the conversation history storage means, and the specified case frame expression is specified. The target object specified in the case frame expression is obtained, and based on the relative distance information stored in the distance information storage means, the target object closest to the target object obtained by the above processing is obtained. An expression interpolating means for determining an instance as an object specified in a case frame expression of an input sentence; a command converting means for converting an output interpolated by the expression interpolating means into a predetermined command format; Output means for controlling a display screen based on a command from the means.
JP3096195A 1991-04-03 1991-04-03 Conversation system Expired - Lifetime JP2697775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3096195A JP2697775B2 (en) 1991-04-03 1991-04-03 Conversation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3096195A JP2697775B2 (en) 1991-04-03 1991-04-03 Conversation system

Publications (2)

Publication Number Publication Date
JPH04306769A JPH04306769A (en) 1992-10-29
JP2697775B2 true JP2697775B2 (en) 1998-01-14

Family

ID=14158515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3096195A Expired - Lifetime JP2697775B2 (en) 1991-04-03 1991-04-03 Conversation system

Country Status (1)

Country Link
JP (1) JP2697775B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017107276A (en) * 2015-12-07 2017-06-15 株式会社デンソーアイティーラボラトリ Information processing device, information processing method, and program
JP6682488B2 (en) 2017-10-03 2020-04-15 株式会社スクウェア・エニックス Command processing program, image command processing device, and image command processing method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62191967A (en) * 1986-02-19 1987-08-22 Ricoh Co Ltd Context processor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
浮田輝彦、住田一男、木下聡、天野真家、佐野洋、「自然言語入力による機器操作案内システム」、ICOT研究速報、No.563 (1988)

Also Published As

Publication number Publication date
JPH04306769A (en) 1992-10-29

Similar Documents

Publication Publication Date Title
JP3338992B2 (en) Sign language / word conversion system
US5659764A (en) Sign language generation apparatus and sign language translation apparatus
JPH0630066B2 (en) Table type language translation method
JPH08315185A (en) Sign language editing device
JP2697775B2 (en) Conversation system
JP7049173B2 (en) Sign language CG translation editing equipment and programs
JPH0991307A (en) Relative information display device and relative information display control method
JP2645027B2 (en) Guide help information display device and guide help information display method
JPH0565905B2 (en)
JPH01229321A (en) User interface generation tool
JP2005099977A (en) Sign language editing method and device
JPH03127266A (en) Inter-word relation editing/learning device for mechanical translating device
JP2001318917A (en) Example retrieval type second language composition aiding device
JPH04148370A (en) Document processor
JP2763289B2 (en) Detailed description positioning method in logic diagram creation processing device
JP2811747B2 (en) Language processor
JPH0317741A (en) Program production support device
JPH06266487A (en) Information processor and help information presenting method
Hargreaves Computer graphics for directed graph design methods
JPH0392926A (en) Numerical formula input processor, numerical formula input processing method and computer system containing the same
JPH0981570A (en) Translation device and translated sentence display method
JPS6379125A (en) Back-up system for instruction input
JPS62243070A (en) Information retrieving method and its device
JPS63109567A (en) Control system for editing data display positioning
JPS6358569A (en) Method and device for back-up of plan production

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term