JP2644219B2 - Interaction processing method - Google Patents
Interaction processing methodInfo
- Publication number
- JP2644219B2 JP2644219B2 JP61249580A JP24958086A JP2644219B2 JP 2644219 B2 JP2644219 B2 JP 2644219B2 JP 61249580 A JP61249580 A JP 61249580A JP 24958086 A JP24958086 A JP 24958086A JP 2644219 B2 JP2644219 B2 JP 2644219B2
- Authority
- JP
- Japan
- Prior art keywords
- response
- input
- information
- response sentence
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Description
【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) 本発明は、対話システムにおいて自然言語により自然
な対話を行うことを可能にするマンマシン対話方式に関
する。DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Field of Industrial Application) The present invention relates to a man-machine dialogue system that enables a natural language to be used for a natural dialogue in a dialogue system.
(従来の技術) 近時、各種の情報処理システムが開発され、種々の産
業分野に互って幅広く利用されている。また最近では、
この種の情報処理システムに対してキーボードやタブレ
ット等を用いて情報入力することに代えて、音声認識技
術を利用してオペレータ(利用者)が発話した音声によ
り直接的に情報入力することも試みられている。この種
の情報処理システムを効果的に運用するには、システム
と利用者との間で対話的に情報交換し得るインターフェ
ースを実現することが重要である。(Prior Art) Recently, various information processing systems have been developed and widely used in various industrial fields. Also recently,
Instead of using a keyboard or tablet to input information to this type of information processing system, an attempt was made to directly input information using voice recognition technology using the voice spoken by an operator (user). Have been. In order to effectively operate this type of information processing system, it is important to realize an interface capable of interactively exchanging information between the system and a user.
従来の自然言語によらない対話システムでは、システ
ムが利用者に応答文を呈示してかそれに対して利用者が
入力を行うまで時間の経過にかかわりなく、なにも応答
文を生成しないため、例えばそのシステムを始めて用い
るような利用者にとっては、何をしてよいのかがわから
ず困惑してしまうようなことがあった。またある時間が
経過することによって同じ応答文を繰り返し出力した
り、あるいは強制的に対話を終了してしまうシステムは
あったが、初心者にとっては同じ応答文を何度聞いても
状況が変化するわけではなく、さらには対話を終了され
てしまってはただ困惑してしまうばかりであった。特に
自然言語による対話システムではこのような処理すら行
われず、利用者が入力を終了するのを永遠に待ち続ける
だけであった。In a conventional dialogue system that does not use natural language, the system does not generate any response sentence regardless of the lapse of time until the system presents the response sentence to the user or inputs it. For example, a user who is using the system for the first time may be confused because he does not know what to do. Also, there were systems that repeatedly output the same response sentence after a certain time elapses or forcefully terminate the dialogue, but for beginners the situation changes even if the same response sentence is heard many times Rather, the end of the conversation was just a puzzle. In particular, in a dialogue system using a natural language, even such processing is not performed, and the user simply waits forever to finish inputting.
(発明が解決しようとする問題点) 本発明の目的は、応答文が呈示され利用者が入力を行
うまでの時間が長い場合に、同じ応答文を繰返したり、
対話を終了したり、あるいは永遠に待ち続け利用者を困
惑させることがないようにし、自然な対話が行えること
を可能にするマンマシン対話方式を提供するにある。(Problems to be Solved by the Invention) An object of the present invention is to repeat the same response sentence when the response sentence is presented and the user takes a long time to input.
An object of the present invention is to provide a man-machine dialogue method that does not end a dialogue or wait forever and confuses a user, and enables a natural dialogue.
〔発明の構成) (問題点を解決するための手段と作用) 前記の問題点を解決するため、経過時間が閾値を越え
たことを示す情報を個人情報として記憶し、記憶したこ
の個人情報を参照して、前記入力情報に対する処理を行
う。(Structure of the Invention) (Means and Action for Solving the Problems) In order to solve the above problems, information indicating that the elapsed time has exceeded a threshold value is stored as personal information, and the stored personal information is stored in the memory. Referring to the input information, processing is performed.
(実施例) 本発明の簡単な一実施例を第1図のブロック図に示
す。入力解釈部1、応答生成部2、タスク処理部3、制
御部4からなる入力解釈部1は利用者が入力する文をタ
スク処理部3へのコマンド列に解析する。応答生成部2
はタスク処理部3からのデータ列を応答文として生成す
る。制御部4は時間を計測する手段(タイマー)を有し
ており、応答生成部2が応答を生成した直後に、計測開
始コマンド11及び後述する閾値を制御部4に送ることに
よりその経過時間を計測し始める。この時間は入力解釈
部1が利用者の入力が開始される時に送ってくるリセッ
トコマンド12まで計測を続け、リセットコマンド12を受
けると に設定し、次に応答生成部2より計測開始コマンド11を
受けるまで変化しない。応答生成部2は、タスク処理部
3より入力されるデータ列に従って対応する応答文を生
成するため、データからどのような応答文を生成するの
かということを示す対応表5が記憶されている記憶部5
を利用する。その対応表は、応答文が1組のデータに対
して複数のものが登録されており、そのうち1つが選択
されて応答文が生成される。また応答文にはそれぞれ閾
値が設定されている通常応答生成部2は、応答表の第1
候補しか応答文として生成しないが、制御部4から次候
補出力コマンド13を受けることによって、対応表の次候
補を応答文として生成する。(Embodiment) A simple embodiment of the present invention is shown in the block diagram of FIG. The input interpreting unit 1 including the input interpreting unit 1, the response generating unit 2, the task processing unit 3, and the control unit 4 analyzes a sentence input by the user into a command sequence to the task processing unit 3. Response generator 2
Generates a data string from the task processing unit 3 as a response sentence. The control unit 4 has a means (timer) for measuring time. Immediately after the response generation unit 2 generates a response, the measurement start command 11 and a threshold described later are transmitted to the control unit 4 to measure the elapsed time. Start measuring. This time is measured by the input interpreting unit 1 until the reset command 12 sent when the user's input is started. And does not change until a measurement start command 11 is received from the response generation unit 2 next. The response generation unit 2 generates a corresponding response sentence in accordance with the data string input from the task processing unit 3, and thus stores a correspondence table 5 indicating what kind of response sentence is to be generated from the data. Part 5
Use In the correspondence table, a plurality of response sentences are registered for one set of data, and one of them is selected to generate a response sentence. Further, the normal response generation unit 2 in which a threshold value is set for each response sentence, sets the first value in the response table.
Although only the candidates are generated as a response sentence, the next candidate of the correspondence table is generated as a response sentence by receiving the next candidate output command 13 from the control unit 4.
制御部4は計測している時間が設定された閾値(計測
開始コマンド11とともに転送された)を越えた場合に応
答生成部2に次候補出力コマンド13を送り、応答生成部
13はこれに従って応答文を生成することができる。すな
わち、データiの応答文として、まず応答文i1を生成し
た後、利用者の入力が閾値i1までにないときは応答文i2
を生成し、以下閾値ijをこれる毎に応答文ijを生成す
る。The control unit 4 sends the next candidate output command 13 to the response generation unit 2 when the measurement time exceeds a set threshold value (transferred together with the measurement start command 11), and the response generation unit
13 can generate a response sentence according to this. That is, first, a response sentence i 1 is generated as a response sentence of the data i, and if the user input is not up to the threshold i 1, the response sentence i 2
And a response sentence ij is generated each time the threshold value ij is obtained.
ここで示した応答生成部2ではタスク処理部3からの
出力データに対して一意に応答文が決定できるものと
し、記憶部5内の対応表により実施したが、データがあ
る条件を満す場合にある応答文を生成するようにするに
はprologにおける単一化の機能と同様の機能を用意すれ
ば良い。しかし本発明の主旨はデータから応答文を決定
する方法にあるわけではないのでこの手法についてはい
かなる方法でもかまわない。制御部4は、利用者が閾値
を越えたことを記憶する手段を設け、タスク処理等がこ
の個人情報を参照できるようにしてもよい。The response generation unit 2 shown here can uniquely determine a response sentence for the output data from the task processing unit 3, and the response sentence is executed by using the correspondence table in the storage unit 5. In order to generate the response sentence described in, a function similar to the unification function in prolog may be prepared. However, since the gist of the present invention is not the method of determining a response sentence from data, any method may be used for this method. The control unit 4 may be provided with means for storing that the user has exceeded the threshold value, so that task processing or the like can refer to this personal information.
また入力解釈部の前段を音声認識装置、応答生成部の
後段を音声合成装置とすることにより音声によるマンマ
シン対話が行える。Further, by using a speech recognition device in front of the input interpretation unit and a speech synthesis device in the rear stage of the response generation unit, human-machine dialogue by voice can be performed.
かくして本発明によれば利用者がシステムの応答文を
見てなかなか理解できないで困っているときに、システ
ム別の表現あるいは付加的な情報を応答できるので良い
マンマシン対話を供給することができる。Thus, according to the present invention, when the user cannot easily understand the response sentence of the system and is in trouble, the user can respond to the expression for each system or additional information, so that a good man-machine conversation can be provided.
第1図は本発明の一実施例のブロック図である。 1……入力解釈部、2……応答生成部、3……タスク処
理部、4……制御部、5……対応表を記憶する記憶部。FIG. 1 is a block diagram of one embodiment of the present invention. 1. Input interpreting unit, 2. Response generating unit, 3. Task processing unit, 4. Control unit, 5. Storage unit for storing a correspondence table.
Claims (1)
行ったこの処理に対する応答を生成して出力し、 出力された前記応答に対し、次に入力すべき入力情報が
入力されるまでの経過時間を計測し、 計測したこの経過時間が、予め設定した前記応答に対応
した閾値を越えた場合に、前記応答の表現を変えてある
いは他の情報を付加した応答を再度生成して出力する対
話処理方法において、 前記閾値を越えたことを示す情報を個人情報として記憶
し、 記憶したこの個人情報を参照して、前記入力情報に対す
る処理を行うことを特徴とする対話処理方法。1. A process for input information that has been input,
A response to the performed process is generated and output, and an elapsed time until input information to be input next is input is measured for the output response, and the measured elapsed time is set in advance. In a dialogue processing method for changing the expression of the response or generating and outputting a response to which other information is added again when a threshold value corresponding to the response is exceeded, information indicating that the threshold value has been exceeded is personally output. An interactive processing method, wherein the processing is performed on the input information with reference to the stored personal information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61249580A JP2644219B2 (en) | 1986-10-22 | 1986-10-22 | Interaction processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61249580A JP2644219B2 (en) | 1986-10-22 | 1986-10-22 | Interaction processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS63104136A JPS63104136A (en) | 1988-05-09 |
JP2644219B2 true JP2644219B2 (en) | 1997-08-25 |
Family
ID=17195119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61249580A Expired - Lifetime JP2644219B2 (en) | 1986-10-22 | 1986-10-22 | Interaction processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2644219B2 (en) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS58182752A (en) * | 1982-04-19 | 1983-10-25 | Hitachi Ltd | Input guidance display system |
-
1986
- 1986-10-22 JP JP61249580A patent/JP2644219B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPS63104136A (en) | 1988-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108334487B (en) | Missing semantic information completion method and device, computer equipment and storage medium | |
US4670848A (en) | Artificial intelligence system | |
CN112262430A (en) | Automatically determining language for speech recognition of a spoken utterance received via an automated assistant interface | |
CN108595629B (en) | Data processing method and application for answer selection system | |
JP6815899B2 (en) | Output statement generator, output statement generator and output statement generator | |
US20080059147A1 (en) | Methods and apparatus for context adaptation of speech-to-speech translation systems | |
EP1126436A2 (en) | Speech recognition from multimodal inputs | |
JP6804763B2 (en) | Dialogue system, dialogue device and computer program for it | |
JP5045486B2 (en) | Dialogue device and program | |
KR20190127708A (en) | Talk system and computer program for it | |
KR101534413B1 (en) | Method and apparatus for providing counseling dialogue using counseling information | |
Kumaran et al. | Intelligent personal assistant-implementing voice commands enabling speech recognition | |
CN110808038A (en) | Mandarin assessment method, device, equipment and storage medium | |
CN114676259B (en) | Conversation emotion recognition method based on causal perception interactive network | |
JPH08166866A (en) | Editing support system equipped with interactive interface | |
Treu | Interactive command language design based on required mental work | |
JP2644219B2 (en) | Interaction processing method | |
JP3468572B2 (en) | Dialogue processing device | |
CN114490967A (en) | Training method of dialogue model, dialogue method and device of dialogue robot and electronic equipment | |
KR102284903B1 (en) | Mehtod and apparatus for input sequence | |
JP2003162524A (en) | Language processor | |
Kloosterman | Design and implementation of a user-oriented speech recognition interface: the synergy of technology and human factors | |
Chinaei et al. | Learning user intentions in spoken dialogue systems | |
Grazioso et al. | " What's that called?": a multimodal fusion approach for cultural heritage virtual experiences. | |
Mills et al. | Integrating speech and two-dimensional gesture input-a study of redundancy between modes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EXPY | Cancellation because of completion of term |