JP2644219B2 - Interaction processing method - Google Patents

Interaction processing method

Info

Publication number
JP2644219B2
JP2644219B2 JP61249580A JP24958086A JP2644219B2 JP 2644219 B2 JP2644219 B2 JP 2644219B2 JP 61249580 A JP61249580 A JP 61249580A JP 24958086 A JP24958086 A JP 24958086A JP 2644219 B2 JP2644219 B2 JP 2644219B2
Authority
JP
Japan
Prior art keywords
response
input
information
response sentence
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61249580A
Other languages
Japanese (ja)
Other versions
JPS63104136A (en
Inventor
一男 住田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP61249580A priority Critical patent/JP2644219B2/en
Publication of JPS63104136A publication Critical patent/JPS63104136A/en
Application granted granted Critical
Publication of JP2644219B2 publication Critical patent/JP2644219B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) 本発明は、対話システムにおいて自然言語により自然
な対話を行うことを可能にするマンマシン対話方式に関
する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Field of Industrial Application) The present invention relates to a man-machine dialogue system that enables a natural language to be used for a natural dialogue in a dialogue system.

(従来の技術) 近時、各種の情報処理システムが開発され、種々の産
業分野に互って幅広く利用されている。また最近では、
この種の情報処理システムに対してキーボードやタブレ
ット等を用いて情報入力することに代えて、音声認識技
術を利用してオペレータ(利用者)が発話した音声によ
り直接的に情報入力することも試みられている。この種
の情報処理システムを効果的に運用するには、システム
と利用者との間で対話的に情報交換し得るインターフェ
ースを実現することが重要である。
(Prior Art) Recently, various information processing systems have been developed and widely used in various industrial fields. Also recently,
Instead of using a keyboard or tablet to input information to this type of information processing system, an attempt was made to directly input information using voice recognition technology using the voice spoken by an operator (user). Have been. In order to effectively operate this type of information processing system, it is important to realize an interface capable of interactively exchanging information between the system and a user.

従来の自然言語によらない対話システムでは、システ
ムが利用者に応答文を呈示してかそれに対して利用者が
入力を行うまで時間の経過にかかわりなく、なにも応答
文を生成しないため、例えばそのシステムを始めて用い
るような利用者にとっては、何をしてよいのかがわから
ず困惑してしまうようなことがあった。またある時間が
経過することによって同じ応答文を繰り返し出力した
り、あるいは強制的に対話を終了してしまうシステムは
あったが、初心者にとっては同じ応答文を何度聞いても
状況が変化するわけではなく、さらには対話を終了され
てしまってはただ困惑してしまうばかりであった。特に
自然言語による対話システムではこのような処理すら行
われず、利用者が入力を終了するのを永遠に待ち続ける
だけであった。
In a conventional dialogue system that does not use natural language, the system does not generate any response sentence regardless of the lapse of time until the system presents the response sentence to the user or inputs it. For example, a user who is using the system for the first time may be confused because he does not know what to do. Also, there were systems that repeatedly output the same response sentence after a certain time elapses or forcefully terminate the dialogue, but for beginners the situation changes even if the same response sentence is heard many times Rather, the end of the conversation was just a puzzle. In particular, in a dialogue system using a natural language, even such processing is not performed, and the user simply waits forever to finish inputting.

(発明が解決しようとする問題点) 本発明の目的は、応答文が呈示され利用者が入力を行
うまでの時間が長い場合に、同じ応答文を繰返したり、
対話を終了したり、あるいは永遠に待ち続け利用者を困
惑させることがないようにし、自然な対話が行えること
を可能にするマンマシン対話方式を提供するにある。
(Problems to be Solved by the Invention) An object of the present invention is to repeat the same response sentence when the response sentence is presented and the user takes a long time to input.
An object of the present invention is to provide a man-machine dialogue method that does not end a dialogue or wait forever and confuses a user, and enables a natural dialogue.

〔発明の構成) (問題点を解決するための手段と作用) 前記の問題点を解決するため、経過時間が閾値を越え
たことを示す情報を個人情報として記憶し、記憶したこ
の個人情報を参照して、前記入力情報に対する処理を行
う。
(Structure of the Invention) (Means and Action for Solving the Problems) In order to solve the above problems, information indicating that the elapsed time has exceeded a threshold value is stored as personal information, and the stored personal information is stored in the memory. Referring to the input information, processing is performed.

(実施例) 本発明の簡単な一実施例を第1図のブロック図に示
す。入力解釈部1、応答生成部2、タスク処理部3、制
御部4からなる入力解釈部1は利用者が入力する文をタ
スク処理部3へのコマンド列に解析する。応答生成部2
はタスク処理部3からのデータ列を応答文として生成す
る。制御部4は時間を計測する手段(タイマー)を有し
ており、応答生成部2が応答を生成した直後に、計測開
始コマンド11及び後述する閾値を制御部4に送ることに
よりその経過時間を計測し始める。この時間は入力解釈
部1が利用者の入力が開始される時に送ってくるリセッ
トコマンド12まで計測を続け、リセットコマンド12を受
けると に設定し、次に応答生成部2より計測開始コマンド11を
受けるまで変化しない。応答生成部2は、タスク処理部
3より入力されるデータ列に従って対応する応答文を生
成するため、データからどのような応答文を生成するの
かということを示す対応表5が記憶されている記憶部5
を利用する。その対応表は、応答文が1組のデータに対
して複数のものが登録されており、そのうち1つが選択
されて応答文が生成される。また応答文にはそれぞれ閾
値が設定されている通常応答生成部2は、応答表の第1
候補しか応答文として生成しないが、制御部4から次候
補出力コマンド13を受けることによって、対応表の次候
補を応答文として生成する。
(Embodiment) A simple embodiment of the present invention is shown in the block diagram of FIG. The input interpreting unit 1 including the input interpreting unit 1, the response generating unit 2, the task processing unit 3, and the control unit 4 analyzes a sentence input by the user into a command sequence to the task processing unit 3. Response generator 2
Generates a data string from the task processing unit 3 as a response sentence. The control unit 4 has a means (timer) for measuring time. Immediately after the response generation unit 2 generates a response, the measurement start command 11 and a threshold described later are transmitted to the control unit 4 to measure the elapsed time. Start measuring. This time is measured by the input interpreting unit 1 until the reset command 12 sent when the user's input is started. And does not change until a measurement start command 11 is received from the response generation unit 2 next. The response generation unit 2 generates a corresponding response sentence in accordance with the data string input from the task processing unit 3, and thus stores a correspondence table 5 indicating what kind of response sentence is to be generated from the data. Part 5
Use In the correspondence table, a plurality of response sentences are registered for one set of data, and one of them is selected to generate a response sentence. Further, the normal response generation unit 2 in which a threshold value is set for each response sentence, sets the first value in the response table.
Although only the candidates are generated as a response sentence, the next candidate of the correspondence table is generated as a response sentence by receiving the next candidate output command 13 from the control unit 4.

制御部4は計測している時間が設定された閾値(計測
開始コマンド11とともに転送された)を越えた場合に応
答生成部2に次候補出力コマンド13を送り、応答生成部
13はこれに従って応答文を生成することができる。すな
わち、データiの応答文として、まず応答文i1を生成し
た後、利用者の入力が閾値i1までにないときは応答文i2
を生成し、以下閾値ijをこれる毎に応答文ijを生成す
る。
The control unit 4 sends the next candidate output command 13 to the response generation unit 2 when the measurement time exceeds a set threshold value (transferred together with the measurement start command 11), and the response generation unit
13 can generate a response sentence according to this. That is, first, a response sentence i 1 is generated as a response sentence of the data i, and if the user input is not up to the threshold i 1, the response sentence i 2
And a response sentence ij is generated each time the threshold value ij is obtained.

ここで示した応答生成部2ではタスク処理部3からの
出力データに対して一意に応答文が決定できるものと
し、記憶部5内の対応表により実施したが、データがあ
る条件を満す場合にある応答文を生成するようにするに
はprologにおける単一化の機能と同様の機能を用意すれ
ば良い。しかし本発明の主旨はデータから応答文を決定
する方法にあるわけではないのでこの手法についてはい
かなる方法でもかまわない。制御部4は、利用者が閾値
を越えたことを記憶する手段を設け、タスク処理等がこ
の個人情報を参照できるようにしてもよい。
The response generation unit 2 shown here can uniquely determine a response sentence for the output data from the task processing unit 3, and the response sentence is executed by using the correspondence table in the storage unit 5. In order to generate the response sentence described in, a function similar to the unification function in prolog may be prepared. However, since the gist of the present invention is not the method of determining a response sentence from data, any method may be used for this method. The control unit 4 may be provided with means for storing that the user has exceeded the threshold value, so that task processing or the like can refer to this personal information.

また入力解釈部の前段を音声認識装置、応答生成部の
後段を音声合成装置とすることにより音声によるマンマ
シン対話が行える。
Further, by using a speech recognition device in front of the input interpretation unit and a speech synthesis device in the rear stage of the response generation unit, human-machine dialogue by voice can be performed.

〔発明の効果〕〔The invention's effect〕

かくして本発明によれば利用者がシステムの応答文を
見てなかなか理解できないで困っているときに、システ
ム別の表現あるいは付加的な情報を応答できるので良い
マンマシン対話を供給することができる。
Thus, according to the present invention, when the user cannot easily understand the response sentence of the system and is in trouble, the user can respond to the expression for each system or additional information, so that a good man-machine conversation can be provided.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の一実施例のブロック図である。 1……入力解釈部、2……応答生成部、3……タスク処
理部、4……制御部、5……対応表を記憶する記憶部。
FIG. 1 is a block diagram of one embodiment of the present invention. 1. Input interpreting unit, 2. Response generating unit, 3. Task processing unit, 4. Control unit, 5. Storage unit for storing a correspondence table.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力された入力情報に対する処理を行い、
行ったこの処理に対する応答を生成して出力し、 出力された前記応答に対し、次に入力すべき入力情報が
入力されるまでの経過時間を計測し、 計測したこの経過時間が、予め設定した前記応答に対応
した閾値を越えた場合に、前記応答の表現を変えてある
いは他の情報を付加した応答を再度生成して出力する対
話処理方法において、 前記閾値を越えたことを示す情報を個人情報として記憶
し、 記憶したこの個人情報を参照して、前記入力情報に対す
る処理を行うことを特徴とする対話処理方法。
1. A process for input information that has been input,
A response to the performed process is generated and output, and an elapsed time until input information to be input next is input is measured for the output response, and the measured elapsed time is set in advance. In a dialogue processing method for changing the expression of the response or generating and outputting a response to which other information is added again when a threshold value corresponding to the response is exceeded, information indicating that the threshold value has been exceeded is personally output. An interactive processing method, wherein the processing is performed on the input information with reference to the stored personal information.
JP61249580A 1986-10-22 1986-10-22 Interaction processing method Expired - Lifetime JP2644219B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61249580A JP2644219B2 (en) 1986-10-22 1986-10-22 Interaction processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61249580A JP2644219B2 (en) 1986-10-22 1986-10-22 Interaction processing method

Publications (2)

Publication Number Publication Date
JPS63104136A JPS63104136A (en) 1988-05-09
JP2644219B2 true JP2644219B2 (en) 1997-08-25

Family

ID=17195119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61249580A Expired - Lifetime JP2644219B2 (en) 1986-10-22 1986-10-22 Interaction processing method

Country Status (1)

Country Link
JP (1) JP2644219B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58182752A (en) * 1982-04-19 1983-10-25 Hitachi Ltd Input guidance display system

Also Published As

Publication number Publication date
JPS63104136A (en) 1988-05-09

Similar Documents

Publication Publication Date Title
CN108334487B (en) Missing semantic information completion method and device, computer equipment and storage medium
US4670848A (en) Artificial intelligence system
CN112262430A (en) Automatically determining language for speech recognition of a spoken utterance received via an automated assistant interface
CN108595629B (en) Data processing method and application for answer selection system
JP6815899B2 (en) Output statement generator, output statement generator and output statement generator
US20080059147A1 (en) Methods and apparatus for context adaptation of speech-to-speech translation systems
EP1126436A2 (en) Speech recognition from multimodal inputs
JP6804763B2 (en) Dialogue system, dialogue device and computer program for it
JP5045486B2 (en) Dialogue device and program
KR20190127708A (en) Talk system and computer program for it
KR101534413B1 (en) Method and apparatus for providing counseling dialogue using counseling information
Kumaran et al. Intelligent personal assistant-implementing voice commands enabling speech recognition
CN110808038A (en) Mandarin assessment method, device, equipment and storage medium
CN114676259B (en) Conversation emotion recognition method based on causal perception interactive network
JPH08166866A (en) Editing support system equipped with interactive interface
Treu Interactive command language design based on required mental work
JP2644219B2 (en) Interaction processing method
JP3468572B2 (en) Dialogue processing device
CN114490967A (en) Training method of dialogue model, dialogue method and device of dialogue robot and electronic equipment
KR102284903B1 (en) Mehtod and apparatus for input sequence
JP2003162524A (en) Language processor
Kloosterman Design and implementation of a user-oriented speech recognition interface: the synergy of technology and human factors
Chinaei et al. Learning user intentions in spoken dialogue systems
Grazioso et al. " What's that called?": a multimodal fusion approach for cultural heritage virtual experiences.
Mills et al. Integrating speech and two-dimensional gesture input-a study of redundancy between modes

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term