JPH0344690A - Conversation manner education system - Google Patents

Conversation manner education system

Info

Publication number
JPH0344690A
JPH0344690A JP17907289A JP17907289A JPH0344690A JP H0344690 A JPH0344690 A JP H0344690A JP 17907289 A JP17907289 A JP 17907289A JP 17907289 A JP17907289 A JP 17907289A JP H0344690 A JPH0344690 A JP H0344690A
Authority
JP
Japan
Prior art keywords
conversation
evaluation
knowledge
honorific
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP17907289A
Other languages
Japanese (ja)
Other versions
JP2673831B2 (en
Inventor
Otoya Shirotsuka
音也 城塚
Noriya Murakami
村上 憲也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Group Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP17907289A priority Critical patent/JP2673831B2/en
Publication of JPH0344690A publication Critical patent/JPH0344690A/en
Application granted granted Critical
Publication of JP2673831B2 publication Critical patent/JP2673831B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

PURPOSE:To recognize and correct an error in kind which can not be corrected by a conventional system by using grammatical knowledge regarding terms of honorific language using knowledge for the terms of honorific language state information on a conversation, and a conversation pattern. CONSTITUTION:A recognition part 4 converts an input voice into a phoneme string, a language processing part 5 converts the string into character information, and a conversation understanding part 6 extracts the meaning of a sentence from the character information. A interaction control part 7 extracts and holds necessary state information to generate a response. A honorific language generation part 8 generates a conversation with correct expression by using the meaning contents of the conversation. An evaluation part 9 compares and analyzes the character information and the converted sentence with correct expression to evaluate the expression and contents of the conversation. A total evaluation part 10 performs total evaluation. An output part 11 outputs indications to a user, a response to the conversation, and evaluation in the form of voice or character information. The conversation understanding part 6 uses the state knowledge 14, the respect term generation part 8 uses the honorific language grammatical knowledge 12, and usage knowledge 13, and the interaction control part 7 and evaluation part 9 uses the data base of interaction patterns 15 while the interaction control part 7 uses image data 16 according to an interaction advance. Consequently, the user easily learns the conversion based principally upon honorific language close to a real conversation.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、電話応対、接客、面接、自己紹介等の公的な
対話場面において必要とする、社会的通念に即した言葉
使い、望ましい会話の展開を学習するための支援を目的
とした、コンピュータ装置を使用した会話マナー教育シ
ステムに関するものである。
[Detailed Description of the Invention] [Industrial Field of Application] The present invention is designed to improve the use of language and desirable conversation in accordance with social conventions, which are necessary in public dialogue situations such as answering the telephone, customer service, interviews, and self-introductions. This invention relates to a conversation etiquette education system using a computer device for the purpose of supporting learning the development of conversation.

[従来の技術] 本発明の使用目的に近いものとして、システムと自由に
会話しながら英会話を学ぶことのできる英会話教育シス
テムが挙げられる。この英会話教育システムは、利用者
と英語で自由な会話を交わしながら、利用者の発話の文
法的誤り、単語の綴りに関する誤りを指摘し、状況にあ
った適当な発話の言い回しを提示する機能がある。その
ような機能の実現のために、この英会話教育システムは
、単語辞書、文法辞書、及び具体的な会話パターンとい
った知識を用意している。利用者の会話の入力はキーボ
ードであり、デイスプレィにその入力文が表示され、シ
ステムの応答は、デイスプレィおよび音声によって出力
される。
[Prior Art] An example of something similar to the intended use of the present invention is an English conversation education system that allows users to learn English conversation while freely conversing with the system. This English conversation education system has a function that points out grammatical errors and spelling errors in the user's utterances while having a free conversation in English with the user, and suggests appropriate phrases for the utterance that suit the situation. be. In order to realize such functions, this English conversation education system provides knowledge such as a word dictionary, a grammar dictionary, and specific conversation patterns. The user inputs the conversation using the keyboard, the input text is displayed on the display, and the system's response is output on the display and by voice.

[発明が解決しようとする課題] 従来の語学教育システムでは、入力文の誤りの訂正は、
単語辞書、文法辞書、及び具体的な会話パターンによっ
て対応している。本発明の利用対象である会話マナーに
おける誤りは、文法的なものだけでなく、敬語の運用上
の誤り、会話の展開パターンとの不一致等による誤りが
存在するので、従来の誤り訂正機能では対応できない。
[Problem to be solved by the invention] In conventional language education systems, correction of errors in input sentences is done by
This is supported by word dictionaries, grammar dictionaries, and specific conversation patterns. Errors in conversation manners, which are the target of this invention, are not only grammatical, but also errors due to errors in the use of honorific language, inconsistency with the conversation development pattern, etc., so conventional error correction functions cannot handle them. Can not.

[課題を解決するための手段] 従来の技術では対応できない種類の誤りを認識、修正す
る手段として、敬語に関する文法知識と敬語の運用のた
めの知識、会話の状況情報、会話パターンを使用する。
[Means for solving the problem] As a means of recognizing and correcting errors of a type that cannot be handled with conventional technology, we use grammatical knowledge about honorific language, knowledge of how to use honorific language, conversation situation information, and conversation patterns.

[作用] 利用者によって入力された会話音声は、音声認識部、言
語処理部、発話理解部によって入力文として認識、理解
された後、評価部によって、敬語文法知識、敬語運用知
識及び会話状況情報を用いて文の表現に関する誤りが認
識される。さらに会話の展開パターンと照合されて、入
力文が会話の展開にそった適当なものであるか否かが判
断される。対話管理部によって、これらの処理結果と会
話バタンから、対応するシステムの応答が生成される。
[Operation] After the conversational speech input by the user is recognized and understood as an input sentence by the speech recognition unit, language processing unit, and speech understanding unit, the evaluation unit evaluates it as honorific grammar knowledge, honorific usage knowledge, and conversation situation information. Errors in the expression of sentences are recognized using . Furthermore, it is compared with the conversation development pattern to determine whether the input sentence is appropriate for the conversation development. The dialogue management unit generates a corresponding system response from these processing results and conversation buttons.

この繰り返しによってシステムと利用者の会話がなされ
る。会話が終了すると、教育戦略部によって、保存され
ていた利用者の発話から、総合的な会話に関する評価及
び言′fi遣い等に関するアドバイスが出力される。
This repetition creates a conversation between the system and the user. When the conversation ends, the education strategy department outputs an overall evaluation of the conversation and advice regarding the use of words, etc., based on the user's saved utterances.

[実施例コ 第1図は、本発明のシステムを構成するための装置の一
実施例を示すブロック図であって、!は音声入出力装置
、2はデイスプレィ装置、3はすべての情報を処理する
ための処理装置である。
[Embodiment] FIG. 1 is a block diagram showing an embodiment of a device for configuring the system of the present invention. 2 is an audio input/output device, 2 is a display device, and 3 is a processing device for processing all information.

利用者は、電話回線を介し、または直接、処理装置に接
続する音声入出力装置lを使用して、音声を処理装置3
に人力する。
The user transmits audio to the processing device 3 using an audio input/output device connected to the processing device via a telephone line or directly.
to use human power.

処理袋@3では、電気信号に変換された利用者の音声を
認識し、信号を分析、理解してそれに対応する応答文を
生成し、音声入出力装置に送り音声を出力して利用者と
の会話を進める。また会話マナーの教育を行う。さらに
デイスプレィ2に文字、画像情報を出力することによっ
て利用者の理解を助ける。
The processing bag@3 recognizes the user's voice converted into an electrical signal, analyzes and understands the signal, generates a corresponding response sentence, sends it to the voice input/output device, outputs the voice, and communicates with the user. Proceed with the conversation. We also provide education on conversation etiquette. Furthermore, by outputting text and image information on the display 2, it helps the user's understanding.

第2図は、処理装置内の各処理部の構成を示すブロック
図である。第2図において、4は認識部であり、入力音
声を音声認R機能により音素列に変換する。言語処理部
5は、音素列を文字情報に変換する。発話理解部6は、
文字情報から、文の表わす意味を抽出する。
FIG. 2 is a block diagram showing the configuration of each processing section within the processing device. In FIG. 2, reference numeral 4 denotes a recognition unit, which converts input speech into a phoneme string using a speech recognition R function. The language processing unit 5 converts the phoneme string into character information. The speech understanding unit 6 is
Extract the meaning of a sentence from character information.

発話理解部7は、利用者の発話の内容を受は取って、必
要な情報を状況情報として抽出、保存し、さらに、シス
テムとしての応答を生成する。敬語生成部8は、発話の
意味内容を受は取って、正しい表現の発話を生成する。
The utterance understanding unit 7 receives the content of the user's utterance, extracts and stores necessary information as situation information, and further generates a response as a system. The honorific expression generation unit 8 receives the meaning of the utterance and generates an utterance with a correct expression.

評価部9は、利用者の発話を文字情報に変換したものと
、その発話の内容を正しい表現を使った文にfeしたも
のとを比較、分析し、利用者の発話の表現、内容を評価
する。
The evaluation unit 9 compares and analyzes the user's utterance converted into text information and the fe version of the utterance content into a sentence using correct expressions, and evaluates the expression and content of the user's utterance. do.

総合評価部lOは、利用者の発話に対する評価を分析し
、総合的な評価を生成する。出力部11は、デイスプレ
ーに画像情報を出力し、システムの利用者に対する指示
や、利用者の発話に対するシステムの応答、評価を、音
声、文字情報として出力する。
The comprehensive evaluation unit IO analyzes the evaluation of the user's utterances and generates a comprehensive evaluation. The output unit 11 outputs image information to the display, and outputs instructions to the system user, system responses and evaluations to the user's utterances as voice and text information.

状況知識データベース14は、発話理解部6で使用され
、敬語文法知識データベース12、敬語運用知識データ
ベース13は、敬語生成部8で使用され、対話パターン
データベース15は、対話管理部7、及び評価部9でそ
れぞれ使用される。
The situational knowledge database 14 is used by the speech understanding unit 6, the honorific language grammar knowledge database 12 and the honorific language usage knowledge database 13 are used by the honorific language generation unit 8, and the dialogue pattern database 15 is used by the dialogue management unit 7 and evaluation unit 9. used respectively.

画像データは対話の進行に応じて、対話管理部7によっ
て使用される。
The image data is used by the dialogue management section 7 according to the progress of the dialogue.

第3図は、処理装置内の処理の手順を表わした流れ図で
あり、それぞれの処理を分担する、第2図における対応
する処理部の符号を括弧内に表示している。第3図を用
いて、システムの処理を、処理順序にしたがって説明す
る。
FIG. 3 is a flowchart showing the processing procedure within the processing device, and the reference numbers of the corresponding processing units in FIG. 2, which are responsible for each process, are shown in parentheses. Using FIG. 3, the processing of the system will be explained in accordance with the processing order.

本システムにおける処理系列は、大きく分けて対話系列
と評価系列の二つが存在する。
The processing series in this system can be broadly divided into two types: a dialogue series and an evaluation series.

まず対話系列に沿って説明すると、入力音声は、認識部
4において認識され、言語処理部5で文字情報に変換さ
れる。この文字情報は文字として出力部11から出力さ
れる。さらにこの文字情報は発話理解部6で理解され、
理解された内容が対話管理部7にて対話パターンによっ
て分析され応答内容が生成される。この応答内容は敬語
生成部8で正しい表現の文に変換され、出力部11から
音声および文字情報として出力される。それと同時に対
話管理部7が画像データを検索して得た、状況に応じた
画像データが出力部11から画像として出力される。
First, to explain along the dialog sequence, input speech is recognized by the recognition section 4 and converted into character information by the language processing section 5. This character information is output from the output unit 11 as characters. Furthermore, this character information is understood by the speech understanding unit 6,
The understood content is analyzed by a dialogue pattern in the dialogue management section 7, and a response content is generated. The content of this response is converted into a correctly expressed sentence by the honorific language generation section 8, and outputted from the output section 11 as audio and text information. At the same time, image data corresponding to the situation, obtained by the dialog management section 7 by searching for image data, is outputted as an image from the output section 11.

次に評価系列に沿って説明すると、言語処理部5におい
て文字情報に変換された利用者の発話を内容とする文字
列と、発話理解部6において理解され、敬語生成部8に
おいて変換された正しい表現をもった利用者の発話とが
、評価部9において比較、評価される。
Next, to explain along the evaluation series, the character string containing the user's utterance converted into character information in the language processing unit 5, and the correct character string that is understood in the utterance understanding unit 6 and converted in the honorific expression generation unit 8. The user's utterances with expressions are compared and evaluated in the evaluation section 9.

この比較、評価は、敬語を運用するために必要な人間関
係を会話場面毎に記述した敬語運用知識データベース1
2と、書換え可能なその01語の尊敬形、謙譲形、丁寧
形を単語毎に記述した敬語文法知識データベース13を
使用して行われる。第8図に、敬語運用知識データベー
ス12と敬語文法知識データベース13の一部を例示す
る。具体的には、この比較、評価は、利用者のrI!t
55の不使用や誤用、尊敬語と謙譲語の取り違えなどの
誤り部分を見つけ、これを保存し、誤りの種類毎に誤り
のスコアを集計することによっ、て行われる。
This comparison and evaluation is based on the Keigo Usage Knowledge Database 1, which describes the human relationships necessary for using honorifics in each conversation situation.
This is done using a honorific grammar knowledge database 13 that describes the respectful form, humble form, and polite form of the 01 word, which can be rewritten, for each word. FIG. 8 illustrates a part of the honorific language usage knowledge database 12 and the honorific language grammar knowledge database 13. Specifically, this comparison and evaluation is based on the user's rI! t
This is done by finding erroneous parts such as non-use or misuse of 55 words, mixing up honorific words and humble words, storing them, and tallying error scores for each type of error.

さらに対話パターンを参照することによって発話の内容
も評価される。この評価は、会話場面ごとの望ましい対
話の流れをシステムと利用者の対話のペアの連なりとし
て記述した対話パターン15を用いて、実際の利用者の
発話の内容がこの対話パターン15から外れていないか
をチエツクすることによって行われる。第9図に対話パ
ターン15の一部を例示する。具体的には、利用者の発
話の順序、内容がこの対話パターンから外れた場合、外
れた発話内容と、望ましい本来の発話内容を保存し、さ
らにその発話の外れ度合である誤り距離のスコアを計算
する。
Furthermore, the content of the utterance is also evaluated by referring to the dialogue pattern. This evaluation uses dialogue pattern 15, which describes the desired dialogue flow for each conversation situation as a series of dialogue pairs between the system and the user, to ensure that the contents of the actual user's utterances do not deviate from this dialogue pattern 15. This is done by checking the FIG. 9 illustrates a part of the dialogue pattern 15. Specifically, when the order and content of the user's utterances deviate from this dialogue pattern, the system saves the utterances that deviated from the dialogue pattern and the desired original utterance content, and then calculates the error distance score, which is the degree to which the utterances deviate. calculate.

システムと利用者の対話が終了すると、総合評価部10
において、利用者の発話の評価結果が総合的に評価され
、各評価とともに文字情報、音声情報として出力部11
から出力される。総合評価部10から出力される評価に
は、評価部9から受は取った評価結果を内容とする利用
者の発話の表現の誤りと正答、望ましくない発話内容の
指摘と望ましい正答例、さらに評価部9から受は取った
発話表現の誤り種類のスコアと発話内容の誤り距離から
導かれる利用者の発話に対する総合的な評価や正しい会
話を行うためのヒント等がある。総合的な評価と正しい
会話のためのヒントについては、その出力内容をあらか
じめ総合評価部内にデータベースの形で用意し、誤り種
類スコア及び誤り距離をキーとして、適切な内容を引き
出すようになっている。
When the dialogue between the system and the user is completed, the comprehensive evaluation section 10
In the process, the evaluation results of the user's utterances are comprehensively evaluated, and each evaluation is outputted to the output unit 11 as text information and audio information.
is output from. The evaluation output from the comprehensive evaluation section 10 includes errors in the expression of the user's utterances and correct answers, indications of undesirable utterance contents, examples of desirable correct answers, and further evaluations based on the evaluation results received from the evaluation section 9. From Part 9, there is a comprehensive evaluation of the user's utterances derived from the error type score of the utterance expression and the error distance of the utterance content, and hints for correct conversation. Regarding the comprehensive evaluation and hints for correct conversation, the output content is prepared in advance in the form of a database within the comprehensive evaluation department, and appropriate content is extracted using the error type score and error distance as keys. .

第4図にシステムの動作を示す流れ図を示す。FIG. 4 shows a flowchart showing the operation of the system.

第5図は、第4図に示された会話モードの動作を詳細に
説明した流れ図である。第6図は第4図に示された評価
モードの動作を詳細に説明した流れ図である。第7図は
、第4図に示された学習モードの動作を詳細に説明した
流れ図である。
FIG. 5 is a flowchart illustrating in detail the operation of the conversation mode shown in FIG. FIG. 6 is a flowchart illustrating in detail the operation of the evaluation mode shown in FIG. FIG. 7 is a flowchart illustrating in detail the operation of the learning mode shown in FIG.

第4図及び関連する第5図ないし第7図の流れ図に基づ
いて利用者に対するシステムの出力について説明する。
The output of the system to the user will be explained based on the flowcharts of FIG. 4 and related FIGS. 5-7.

練習会話場面の選択時には、デイスプレィ2に、設定さ
れた状況の説明が音声情報及び文字情報として出力され
る。
When a practice conversation scene is selected, an explanation of the set situation is outputted to the display 2 as voice information and text information.

また、会話モード時には、第5図の流れ図に示す手順に
したがって装置が動作し、設定された会話の状況が画像
情報としてデイスプレー2に出力され、システムと利用
者の会話が音声として、また文字情報として出力される
In addition, in the conversation mode, the device operates according to the procedure shown in the flowchart in Figure 5, and the set conversation status is output as image information to the display 2, and the conversation between the system and the user can be recorded as voice or text. Output as information.

さらにシステムは、利用者の発話の表現と内容が正しい
文の表現と対話パターンに近いか遠いかを判断して、そ
の距離の度合をブザー音の出力と、デイスプレィ2の画
面間に表示された人間の顔の表情の変化によって表す。
Furthermore, the system determines whether the expression and content of the user's utterances are close or far from the correct sentence expression and dialogue pattern, and displays the degree of distance between the output of the buzzer sound and the screen of Display 2. Represented by changes in human facial expressions.

評価モード時には、第6図に示す流れにしたがって本発
明の装置が動作し、音声と文字情報によって、利用者の
会話の内容と表現に関する評価が出力され、さらに利用
者の会話に対する総合的な評価が出力される。
In the evaluation mode, the device of the present invention operates according to the flow shown in FIG. 6, and outputs an evaluation regarding the content and expression of the user's conversation using voice and text information, and also outputs an overall evaluation of the user's conversation. is output.

利用者が会話を十分学習できていない場合に利用される
学習モード時には、第7図に示す流れにしたがって装置
が動作し、正しい会話を行うためのヒントや、正しい会
話例、他に考えられる発話の内容や、表現の仕方が、シ
ステムとの会話学習の中で音声、文字情報として出力さ
れ、正しい会話の学習のための助けとなる。第10図に
システムと利用者の会話例の一部を示す。第11図に会
話の評価の具体的動作例を示す。第12図に会話の評価
例を示す。第13図は、会話の総合評価、ヒントおよび
アドバイスの例である。この第1O図ないし第13図は
、第5図ないしm7図において説1月したシステムの利
用者の会話に対する評価の例である。
In the learning mode, which is used when the user has not learned enough conversation, the device operates according to the flow shown in Figure 7, and provides hints for correct conversation, examples of correct conversation, and other possible utterances. The content and way of expression are output as audio and text information during conversation learning with the system, which helps in learning correct conversation. Figure 10 shows part of an example of a conversation between the system and the user. FIG. 11 shows a specific operational example of conversation evaluation. Figure 12 shows an example of conversation evaluation. FIG. 13 is an example of the overall evaluation of the conversation, hints, and advice. Figures 10 to 13 are examples of evaluations of user conversations of the system described in Figures 5 to 7.

[発1月の効果] 本発明は、システムによって設定された具体的な状況に
おける利用者の発話を対象に、敬語を中心とした言葉使
いと会話の話題の展開というふたつの点において評価し
、適切ムアドバイスを下すものであり、そのため、一般
的な敬語に関する文法的知識だけでなく、敬語に関する
運用知識、会話也界の状況知識、また具体的な会話の場
面ごとの会話の展開パターンを用いることにより、従来
の会話文の内容だけではなく、言葉遣い、話題の流れ方
といろ状況によって変化する言葉遣いの問題に対しても
、利用者の学習支援を行うことができるようになってい
る。音声により利用者の発話が理解され、会話の状況に
応じた言′ii逍いでシステムから応答文が出力される
ことにより、利用者は迅速かつ簡便にシステムと会話が
可能となり、より現実に近い学習を行うことができる。
[Effects in January] The present invention evaluates the user's utterances in specific situations set by the system from two points: the use of language centered on honorific language and the development of conversation topics. It provides appropriate advice, and therefore uses not only general grammatical knowledge of honorific language, but also practical knowledge of honorific language, situational knowledge of the conversation world, and conversation development patterns for each specific conversation situation. By doing this, it is now possible to support users in learning not only the content of conventional conversational sentences, but also the language used, the way the topic flows, and other problems that change depending on the situation. . The user's utterances are understood by voice, and the system outputs a response sentence in a manner appropriate to the conversation situation, allowing the user to quickly and easily converse with the system, making it more realistic. Learning can be done.

【図面の簡単な説明】[Brief explanation of drawings]

謁1図は本発明の一実施例のブロック図、第2図は処理
装置における機能ブロック図、第3図は処理装置内の処
理手順を表わした流れ図、第4図はシステムの動作を示
した流れ図、第5図は第4図における会話モードの動作
を説明した流れ図、第6図は第4図における評価モード
の動作を説明した流れ図、第7図は第4図における学習
モードの動作を説明した流れ図である。また、第8図は
敬語運用知識データベースおよび敬語文法知識データベ
ースの内容の例、第9図は、対話パターンの例、第1O
図はシステムと利用者の会話の一部の例、第ti図は会
話の評価の具体的動作例、第12図は会話の評価例、第
13図は、会話の総合評価、ヒント、アドバイスの例で
ある。 ・音声入出力装置 ・処理装置 ・言語処理部 ・対話管理部 ・評価部 ・デイスプレー ・認識部 ・発話理解部 ・敬語生成部 ・総合評価部 II・−出力部 12・・敬語文法知識 13・・敬語運用知識 14・・状況知識 15・・対話パターン 16・・画像データ
Figure 1 is a block diagram of an embodiment of the present invention, Figure 2 is a functional block diagram of the processing device, Figure 3 is a flowchart showing the processing procedure within the processing device, and Figure 4 shows the operation of the system. Flowcharts: Figure 5 is a flowchart explaining the operation of the conversation mode in Figure 4; Figure 6 is a flowchart explaining the operation of the evaluation mode in Figure 4; Figure 7 is a flowchart explaining the operation of the learning mode in Figure 4. This is a flowchart. Also, Figure 8 shows an example of the contents of the honorific language usage knowledge database and the honorific grammar knowledge database, and Figure 9 shows an example of a dialogue pattern.
The figure shows an example of a part of a conversation between the system and the user, Figure 1 shows a concrete operation example of conversation evaluation, Figure 12 shows an example of conversation evaluation, and Figure 13 shows the overall conversation evaluation, hints, and advice. This is an example.・Voice input/output device・Processing device・Language processing section・Dialogue management section・Evaluation section・Display・Recognition section・Speech understanding section・Keigo generation section・Comprehensive evaluation section II・-Output section 12・・Keigo grammar knowledge 13・・Keigo usage knowledge 14・・Situation knowledge 15・・Dialogue pattern 16・・Image data

Claims (1)

【特許請求の範囲】[Claims] 入力された利用者の音声を音韻、文字列として認識する
音声認識部、認識された文字列から入力文を生成する言
語処理部、入力文を会話状況に照らし合わせて理解する
会話理解部、敬語に関する文法的知識、会話状況に関す
る情報、会話状況に応じた敬語運用のための知識及び会
話進行のための会話パタンに関する情報を格納するデー
タベースとしての大容量記憶装置、データベースから読
み出した敬語文法知識、敬語運用知識、会話状況情報、
会話パタンに関する情報を使用して入力された会話文の
表現及び内容を評価する評価部、会話状況及び会話パタ
ンを参照して入力文に対応した応答を生成する対話管理
部、生成された応答文の状況にあった正しい表現を与え
る敬語生成部、利用者の会話文のそれぞれの評価を分析
して会話マナー学習に当たっての教育方針を決定し、利
用者への学習アドバイスを出力する総合評価部、及び入
力音声に対応した応答音声、利用者の学習を支援するた
めの文字画像情報を出力する出力部、の各装置を備えた
会話マナー教育システム。
A speech recognition unit that recognizes the input user's voice as phonemes and character strings, a language processing unit that generates input sentences from the recognized character strings, a conversation understanding unit that understands input sentences by comparing them to the conversation situation, and honorific language. a large-capacity storage device serving as a database that stores information on grammatical knowledge about, information on conversation situations, knowledge on using honorific language according to conversation situations, and information on conversation patterns for progressing the conversation; honorific grammar knowledge read from the database; Honorific usage knowledge, conversation situation information,
An evaluation unit that evaluates the expression and content of an input conversation sentence using information regarding conversation patterns; a dialogue management unit that generates a response corresponding to the input sentence by referring to the conversation situation and conversation pattern; and a generated response sentence. A comprehensive evaluation section that analyzes the evaluation of each user's conversation sentences, determines an educational policy for learning conversation manners, and outputs learning advice to the user. A conversation etiquette education system comprising: a response voice corresponding to the input voice, and an output unit that outputs character image information to support user learning.
JP17907289A 1989-07-13 1989-07-13 Conversational etiquette education system Expired - Lifetime JP2673831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17907289A JP2673831B2 (en) 1989-07-13 1989-07-13 Conversational etiquette education system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17907289A JP2673831B2 (en) 1989-07-13 1989-07-13 Conversational etiquette education system

Publications (2)

Publication Number Publication Date
JPH0344690A true JPH0344690A (en) 1991-02-26
JP2673831B2 JP2673831B2 (en) 1997-11-05

Family

ID=16059603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17907289A Expired - Lifetime JP2673831B2 (en) 1989-07-13 1989-07-13 Conversational etiquette education system

Country Status (1)

Country Link
JP (1) JP2673831B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142484A (en) * 1991-11-18 2001-05-25 Toshiba Corp Method for voice conversation and system therefor
WO2007026715A1 (en) * 2005-09-01 2007-03-08 Kagoshima University Simulation system and program
CN103380449A (en) * 2011-02-24 2013-10-30 浦项工科大学校产学协力团 Conversation management method, and device for executing same
JP2014240864A (en) * 2013-06-11 2014-12-25 富士ソフト株式会社 Speech recognition system and method for controlling speech recognition system
CN109344229A (en) * 2018-09-18 2019-02-15 深圳壹账通智能科技有限公司 Method, apparatus, computer equipment and the storage medium of dialog analysis evaluation
JP2020030400A (en) * 2018-08-23 2020-02-27 國立台湾師範大学 Method of education and electronic device
JP2021032911A (en) * 2019-08-13 2021-03-01 株式会社フォーサイト Dialogue learning system, method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001142484A (en) * 1991-11-18 2001-05-25 Toshiba Corp Method for voice conversation and system therefor
WO2007026715A1 (en) * 2005-09-01 2007-03-08 Kagoshima University Simulation system and program
JPWO2007026715A1 (en) * 2005-09-01 2009-03-12 国立大学法人 鹿児島大学 Simulation system and program
JP4742280B2 (en) * 2005-09-01 2011-08-10 国立大学法人 鹿児島大学 Simulation system and program
CN103380449A (en) * 2011-02-24 2013-10-30 浦项工科大学校产学协力团 Conversation management method, and device for executing same
CN103380449B (en) * 2011-02-24 2015-06-03 浦项工科大学校产学协力团 Conversation management method, and device for executing same
JP2014240864A (en) * 2013-06-11 2014-12-25 富士ソフト株式会社 Speech recognition system and method for controlling speech recognition system
JP2020030400A (en) * 2018-08-23 2020-02-27 國立台湾師範大学 Method of education and electronic device
CN109344229A (en) * 2018-09-18 2019-02-15 深圳壹账通智能科技有限公司 Method, apparatus, computer equipment and the storage medium of dialog analysis evaluation
JP2021032911A (en) * 2019-08-13 2021-03-01 株式会社フォーサイト Dialogue learning system, method, and program

Also Published As

Publication number Publication date
JP2673831B2 (en) 1997-11-05

Similar Documents

Publication Publication Date Title
US8272874B2 (en) System and method for assisting language learning
Derwing et al. Does popular speech recognition software work with ESL speech?
Lee et al. On the effectiveness of robot-assisted language learning
Gamper et al. A review of intelligent CALL systems
US8033831B2 (en) System and method for programmatically evaluating and aiding a person learning a new language
CN110797010A (en) Question-answer scoring method, device, equipment and storage medium based on artificial intelligence
US20100304342A1 (en) Interactive Language Education System and Method
Michael Automated Speech Recognition in language learning: Potential models, benefits and impact
US8221126B2 (en) System and method for performing programmatic language learning tests and evaluations
US20070055520A1 (en) Incorporation of speech engine training into interactive user tutorial
Myers Voice recognition software and a hand-held translation machine for second-language learning
JP2019061189A (en) Teaching material authoring system
KR100238451B1 (en) A computer aided education system and control techniques for korean
JP2673831B2 (en) Conversational etiquette education system
Lee et al. Foreign language tutoring in oral conversations using spoken dialog systems
KR102460272B1 (en) One cycle foreign language learning system using mother toungue and method thereof
KR102165317B1 (en) Method for providing phonics learning service enhancing comprehension of untaught word based on rule and combination
KR100979561B1 (en) Interactive language learning apparatus
KR101765880B1 (en) Language study game system and method using a ball input device
JPH03226785A (en) Linguistic education device with voice recognition device
JP7533525B2 (en) Electronic device, learning support system, learning processing method and program
US20040166479A1 (en) System and method for language learning through listening and typing
JP7540541B2 (en) Learning support device, learning support method and program
KR101983031B1 (en) Language teaching method and language teaching system
US11705115B2 (en) Phonetic keyboard and system to facilitate communication in English