JP2673831B2 - Conversational etiquette education system - Google Patents

Conversational etiquette education system

Info

Publication number
JP2673831B2
JP2673831B2 JP17907289A JP17907289A JP2673831B2 JP 2673831 B2 JP2673831 B2 JP 2673831B2 JP 17907289 A JP17907289 A JP 17907289A JP 17907289 A JP17907289 A JP 17907289A JP 2673831 B2 JP2673831 B2 JP 2673831B2
Authority
JP
Japan
Prior art keywords
conversation
user
unit
honorific
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP17907289A
Other languages
Japanese (ja)
Other versions
JPH0344690A (en
Inventor
音也 城塚
憲也 村上
Original Assignee
エヌ・ティ・ティ・データ通信株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エヌ・ティ・ティ・データ通信株式会社 filed Critical エヌ・ティ・ティ・データ通信株式会社
Priority to JP17907289A priority Critical patent/JP2673831B2/en
Publication of JPH0344690A publication Critical patent/JPH0344690A/en
Application granted granted Critical
Publication of JP2673831B2 publication Critical patent/JP2673831B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、電話応対、接客、面接、自己紹介等の公的
な対話場面において必要とする、社会的通念に即した言
葉使い、望ましい会話の展開を学習するための支援を目
的とした、コンピュータ装置を使用した会話マナー教育
システムに関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Industrial field of application] The present invention is a language and desirable conversation in accordance with social conventions, which is required in public dialogue situations such as telephone reception, customer service, interviews, and self-introduction. The present invention relates to a conversation etiquette education system using a computer device for the purpose of supporting learning of the development of.

[従来の技術] 本発明の使用目的に近いものとして、システムと自由
に会話しながら英会話を学ぶことのできる英会話教育シ
ステムが挙げられる。この英会話教育システムは、利用
者と英語で自由な会話を交わしながら、利用者の発話の
文法的誤り、単語の綴りに関する誤りを指摘し、状況に
あった適当な発話の言い回しを提示する機能がある。そ
のような機能の実現のために、この英会話教育システム
は、単語辞書、文法辞書、及び具体的な会話パターンと
いった知識を用意している。利用者の会話の入力はキー
ボードであり、ディスプレイにその入力文が表示され、
システムの応答は、ディスプレイおよび音声によって出
力される。
[Prior Art] As an object close to the purpose of use of the present invention, there is an English conversation education system capable of learning English conversation while freely talking with the system. This English conversation education system has the function of pointing out the grammatical error of the user's utterance and the error about the spelling of words, and presenting the appropriate utterance wording suitable for the situation, while having free conversation in English with the user. is there. In order to realize such a function, this English conversation education system prepares knowledge such as a word dictionary, a grammar dictionary, and a concrete conversation pattern. The input of the user's conversation is a keyboard, the input sentence is displayed on the display,
The system response is output by the display and voice.

[発明が解決しようとする課題] 従来の語学教育システムでは、入力文の誤りの訂正
は、単語辞書、文法辞書、及び具体的な会話パターンに
よって対応している。本発明の利用対象である会話マナ
ーにおける誤りは、文法的なものだけでなく、敬語の運
用上の誤り、会話の展開パターンとの不一致等による誤
りが存在するので、従来の誤り訂正機能では対応できな
い。
[Problems to be Solved by the Invention] In a conventional language education system, correction of an error in an input sentence is handled by a word dictionary, a grammar dictionary, and a concrete conversation pattern. The error in the conversation etiquette that is the target of the present invention is not only grammatical but also an error in the operation of honorifics, an error due to a mismatch with the expansion pattern of the conversation, etc. Can not.

[課題を解決するための手段] 従来の技術では対応できない種類の誤りを認識、修正
する手段として、敬語に関する文法知識と敬語の運用の
ための知識、会話の状況情報、会話パターンを使用す
る。
[Means for Solving the Problem] As a means for recognizing and correcting an error of a type that cannot be dealt with by conventional techniques, grammatical knowledge about honorifics, knowledge for operating honorifics, conversation status information, and conversation patterns are used.

[作用] 利用者によって入力された会話音声は、音声認識部、
言語処理部、発話理解部によって入力文として認識、理
解された後、評価部によって、敬語文法知識、敬語運用
知識及び会話状況情報を用いて文の表現に関する誤りが
認識される。さらに会話の展開パターンと照合されて、
入力文が会話の展開にそった適当なものであるか否かが
判断される。対話管理部によって、これらの処理結果と
会話パタンから、対応するシステムの応答が生成され
る。この繰り返しによってシステムと利用者の会話がな
される。会話が終了すると、総合評価部によって、保存
されていた利用者の発話から、総合的な会話に関する評
価及び言葉遣い等に関するアドバイスが出力される。
[Operation] The conversation voice input by the user is
After being recognized and understood as an input sentence by the language processing unit and the utterance understanding unit, the evaluation unit recognizes an error regarding the expression of the sentence using the honorific grammar knowledge, the honorific operation knowledge, and the conversation situation information. Furthermore, it is matched with the development pattern of the conversation,
It is determined whether the input sentence is appropriate according to the development of the conversation. The dialogue management unit generates a response of the corresponding system from the processing result and the conversation pattern. By repeating this, the system and the user have a conversation. When the conversation is completed, the comprehensive evaluation unit outputs the evaluation about the general conversation and the advice about the wording from the stored utterances of the user.

[実施例] 第1図は、本発明のシステムを構成するための装置の
一実施例を示すブロック図であって、1は音声入出力装
置、2はディスプレイ装置、3はすべての情報を処理す
るための処理装置である。
[Embodiment] FIG. 1 is a block diagram showing an embodiment of an apparatus for constructing a system of the present invention, in which 1 is a voice input / output device, 2 is a display device, and 3 is all information processing. It is a processing device for doing.

利用者は、電話回線を介し,または直接,処理装置に
接続する音声入出力装置1を使用して、音声を処理装置
3に入力する。
The user inputs a voice to the processor 3 using the voice input / output device 1 connected to the processor via a telephone line or directly.

処理装置3では、電気信号に変換された利用者の音声
を認識し、信号を分析、理解してそれに対応する応答文
を生成し、音声入出力装置に送り音声を出力して利用者
との会話を進める。また会話マナーの教育を行う。さら
にディスプレイ2に文字、画像情報を出力することによ
って利用者の理解を助ける。
The processing device 3 recognizes the voice of the user converted into an electrical signal, analyzes and understands the signal, generates a response sentence corresponding to the signal, outputs the voice to the voice input / output device, and outputs the voice to communicate with the user. Advance the conversation. Also teach conversation manners. Further, by outputting characters and image information to the display 2, the user's understanding is helped.

第2図は、処理装置内の各処理部の構成を示すブロッ
ク図である。第2図において、4は認識部であり、入力
音声を音声認識機能により音素列に変換する。言語処理
部5は、音素列を文字情報に変換する。発話理解部6
は、文字情報から、文の表わす意味を抽出する。
FIG. 2 is a block diagram showing the configuration of each processing unit in the processing device. In FIG. 2, reference numeral 4 is a recognition unit, which converts an input voice into a phoneme string by a voice recognition function. The language processing unit 5 converts the phoneme string into character information. Utterance understanding part 6
Extracts the meaning of the sentence from the character information.

発話理解部7は、利用者の発話の内容を受け取って、
必要な情報を状況情報として抽出、保存し、さらに、シ
ステムとしての応答を生成する。敬語生成部8は、発話
の意味内容を受け取って、正しい表現の発話を生成す
る。
The utterance understanding unit 7 receives the content of the user's utterance,
The necessary information is extracted and stored as status information, and a response as a system is generated. The honorific generation unit 8 receives the meaning content of the utterance and generates the utterance of the correct expression.

評価部9は、利用者の発話を文字情報に変換したもの
と、その発話の内容を正しい表現を使った文に変換した
ものとを比較、分析し、利用者の発話の表現、内容を評
価する。
The evaluation unit 9 compares and analyzes the user's utterance converted into text information and the utterance's contents converted into sentences using a correct expression, and evaluates the user's utterance expression and contents. To do.

総合評価部10は、利用者の発話に対する評価を分析
し、総合的な評価を生成する。出力部11は、ディスプレ
ーに画像情報を出力し、システムの利用者に対する指示
や、利用者の発話に対するシステムの応答、評価を、音
声、文字情報として出力する。
The comprehensive evaluation unit 10 analyzes the evaluation of the user's utterance and generates a comprehensive evaluation. The output unit 11 outputs the image information to the display, and outputs an instruction to the user of the system, a response of the system to the user's utterance, and an evaluation as voice and character information.

状況知識データベース14は、発話理解部6で使用さ
れ、敬語文法知識データベース12、敬語運用知識データ
ベース13は、敬語生成部8で使用され、対話パターンデ
ータベース15は、対話管理部7、及び評価部9でそれぞ
れ使用される。画像データは対話の進行に応じて、対話
管理部7によって使用される。
The situation knowledge database 14 is used by the utterance understanding unit 6, the honorific grammar knowledge database 12, the honorific operation knowledge database 13 is used by the honorific generation unit 8, and the dialogue pattern database 15 is the dialogue management unit 7 and the evaluation unit 9. Used in each. The image data is used by the dialogue management unit 7 according to the progress of the dialogue.

第3図は、処理装置内の処理の手順を表わした流れ図
であり、それぞれの処理を分担する、第2図における対
応する処理部の符号を括弧内に表示している。第3図を
用いて、システムの処理を、処理順序にしたがって説明
する。
FIG. 3 is a flow chart showing the procedure of processing in the processing apparatus, and the reference numerals of the corresponding processing units in FIG. 2 which share each processing are shown in parentheses. The processing of the system will be described in the order of processing with reference to FIG.

本システムにおける処理系列は、大きく分けて対話系
列と評価系列の二つが存在する。
There are roughly two types of processing sequences in this system, a dialogue sequence and an evaluation sequence.

まず対話系列に沿って説明すると、入力音声は、認識
部4において認識され、言語処理部5で文字情報に変換
される。この文字情報は文字として出力部11から出力さ
れる。さらにこの文字情報は発話理解部6で理解され、
理解された内容が対話管理部7にて対話パターンによっ
て分析され応答内容が生成される。この応答内容は敬語
生成部8で正しい表現の文に変換され、出力部11から音
声および文字情報として出力される。それと同時に対話
管理部7が画像データを検索して得た、状況に応じた画
像データが出力部11から画像として出力される。
First, the input speech will be recognized by the recognition unit 4 and converted into character information by the language processing unit 5 in the dialogue sequence. This character information is output from the output unit 11 as a character. Furthermore, this character information is understood by the speech understanding unit 6,
The understood content is analyzed by the interaction management unit 7 according to the interaction pattern, and the response content is generated. The response content is converted into a sentence having a correct expression by the honorific generation unit 8 and output from the output unit 11 as voice and character information. At the same time, the image data corresponding to the situation, which is obtained by the dialogue management unit 7 searching the image data, is output from the output unit 11 as an image.

次に評価系列に沿って説明すると、言語処理部5にお
いて文字情報に変換された利用者の発話を内容とする文
字列と、発話理解部6において理解され、敬語生成部8
において変換された正しい表現をもった利用者の発話と
が、評価部9において比較、評価される。
Describing along the evaluation sequence, a character string having the user's utterance converted into character information in the language processing unit 5 and the utterance understanding unit 6 understands the honorific generation unit 8
The evaluation unit 9 compares and evaluates the utterance of the user having the correct expression converted in (1).

この比較、評価は、敬語を運用するために必要な人間
関係を会話場面毎に記述した敬語運用知識データベース
12と、書換え可能なその単語の尊敬形、謙譲形、丁寧形
を単語毎に記述した敬語文法知識データベース13を使用
して行われる。第8図に、敬語運用知識データベース12
と敬語文法知識データベース13の一部を例示する。具体
的には、この比較、評価は、利用者の敬語の不使用や誤
用、尊敬語と謙譲語の取り違えなどの誤り部分を見つ
け、これを保存し、誤りの種類毎に誤りのスコアを集計
することによって行われる。
This comparison and evaluation is based on the honorific usage knowledge database that describes the human relationships required to operate honorifics for each conversation scene.
12 and a rewriteable honorific grammar knowledge database 13 in which the respectable, humbling, and polite forms of the word are described for each word. Figure 8 shows the honorific operating knowledge database 12
And a part of the honorific grammar knowledge database 13 is illustrated. Specifically, this comparison and evaluation finds error parts such as misuse and misuse of honorific words of users, misunderstanding of honorific words and humble words, saves them, and accumulates error scores for each type of error Is done by doing.

さらに対話パターンを参照することによって発話の内
容も評価される。この評価は、会話場面ごとの望ましい
対話の流れをシステムと利用者の対話のペアの連なりと
して記述した対話パターン15を用いて、実際の利用者の
発話の内容がこの対話パターン15から外れていないかを
チェックすることによって行われる。第9図に対話パタ
ーン15の一部を例示する。具体的には、利用者の発話の
順序、内容がこの対話パターンから外れた場合、外れた
発話内容と、望ましい本来の発話内容を保存し、さらに
その発話の外れ度合である誤り距離のスコアを計算す
る。
Further, the content of the utterance is evaluated by referring to the dialogue pattern. This evaluation uses a dialogue pattern 15 that describes the desirable dialogue flow for each conversation scene as a series of pairs of dialogues between the system and the user, and the content of the actual user's utterance does not deviate from this dialogue pattern 15. It is done by checking. FIG. 9 illustrates a part of the dialogue pattern 15. Specifically, when the user's utterance order and content deviate from this dialogue pattern, the deviated utterance content and the desired original utterance content are saved, and the error distance score, which is the degree of deviation of the utterance, is stored. calculate.

システムと利用者の対話が終了すると、総合評価部10
において、利用者の発話の評価結果が総合的に評価さ
れ、各評価とともに文字情報、音声情報として出力部11
から出力される。総合評価部10から出力される評価に
は、評価部9から受け取った評価結果を内容とする利用
者の発話の表現の誤りと正答、望ましくない発話内容の
指摘と望ましい正答例、さらに評価部9から受け取った
発話表現の誤り種類のスコアと発話内容の誤り距離から
導かれる利用者の発話に対する総合的な評価や正しい会
話を行うためのヒント等がある。総合的な評価と正しい
会話のためのヒントについては、その出力内容をあらか
じめ総合評価部内にデータベースの形で用意し、誤り種
類スコア及び誤り距離をキーとして、適切な内容を引き
出すようになっている。
When the dialogue between the system and the user ends, the comprehensive evaluation unit 10
, The evaluation result of the user's utterance is comprehensively evaluated, and together with each evaluation, the output unit 11 outputs character information and voice information.
Output from The evaluation output from the comprehensive evaluation unit 10 includes an error and a correct answer in the expression of the user's utterance containing the evaluation result received from the evaluation unit 9, an indication of an undesired utterance content and a desirable correct answer example, and the evaluation unit 9 There is a comprehensive evaluation of the user's utterance derived from the score of the error type of the utterance expression received from and the error distance of the utterance content, and hints for making a correct conversation. Regarding the comprehensive evaluation and hints for correct conversation, the output contents are prepared in advance in the form of a database in the comprehensive evaluation section, and the appropriate contents are extracted using the error type score and the error distance as keys. .

第4図にシステムの動作を示す流れ図を示す。第5図
は、第4図に示された会話モードの動作を詳細に説明し
た流れ図である。第6図は第4図に示された評価モード
の動作を詳細に説明した流れ図である。第7図は、第4
図に示された学習モードの動作を詳細に説明した流れ図
である。
FIG. 4 is a flow chart showing the operation of the system. FIG. 5 is a flow chart detailing the operation of the conversation mode shown in FIG. FIG. 6 is a flow chart showing in detail the operation of the evaluation mode shown in FIG. FIG.
6 is a flowchart illustrating in detail the operation of the learning mode shown in the figure.

第4図及び関連する第5図ないし第7図の流れ図に基
づいて利用者に対するシステムの出力について説明す
る。練習会話場面の選択時には、ディスプレイ2に、設
定された状況の説明が音声情報及び文字情報として出力
される。
The output of the system to the user will be described with reference to FIG. 4 and the associated flow charts of FIGS. When selecting the practice conversation scene, the explanation of the set situation is output to the display 2 as voice information and character information.

また、会話モード時には、第5図の流れ図に示す手順
にしたがって装置が動作し、設定された会話の状況が画
像情報としてディスプレー2に出力され、システムと利
用者の会話が音声として、また文字情報として出力され
る。
In the conversation mode, the device operates according to the procedure shown in the flowchart of FIG. 5, the set conversation situation is output to the display 2 as image information, and the conversation between the system and the user is output as voice and character information. Is output as.

さらにシステムは、利用者の発話の表現と内容が正し
い文の表現と対話パターンに近いか遠いかを判断して、
その距離の度合をブザー音の出力と、ディスプレイ2の
画面隅に表示された人間の顔の表情の変化によって表
す。
In addition, the system determines whether the expression and content of the user's utterance is close to or far from the correct sentence expression and dialogue pattern,
The degree of the distance is represented by the output of a buzzer sound and the change in the facial expression of the human face displayed in the screen corner of the display 2.

評価モード時には、第6図に示す流れにしたがって本
発明の装置が動作し、音声と文字情報によって、利用者
の会話の内容と表現に関する評価が出力され、さらに利
用者の会話に対する総合的な評価が出力される。
In the evaluation mode, the device of the present invention operates in accordance with the flow shown in FIG. 6, and the evaluation regarding the content and expression of the user's conversation is output by the voice and character information, and further the comprehensive evaluation for the user's conversation is performed. Is output.

利用者が会話を十分学習できていない場合に利用され
る学習モード時には、第7図に示す流れにしたがって装
置が動作し、正しい会話を行うためのヒントや、正しい
会話例、他に考えられる発話の内容や、表現の仕方が、
システムとの会話学習の中で音声、文字情報として出力
され、正しい会話の学習のための助けとなる。第10図に
システムと利用者の会話例の一部を示す。第11図に会話
の評価の具体的動作例を示す。第12図に会話の評価例を
示す。第13図は、会話の総合評価、ヒントおよびアドバ
イスの例である。この第10図ないし第13図は、第5図な
いし第7図において説明したシステムの利用者の会話に
対する評価の例である。
In the learning mode, which is used when the user has not learned enough conversation, the device operates according to the flow shown in FIG. 7, hints for making a correct conversation, correct conversation examples, and other possible utterances. The content and expression of
It is output as voice and text information during conversation learning with the system, which helps to learn correct conversation. Figure 10 shows a part of the conversation between the system and the user. Figure 11 shows a concrete example of the operation of conversation evaluation. Figure 12 shows an example of conversation evaluation. FIG. 13 is an example of a comprehensive evaluation of conversation, hints and advice. FIGS. 10 to 13 are examples of the evaluation of the conversation of the user of the system described in FIGS. 5 to 7.

[発明の効果] 本発明は、システムによって設定された具体的な状況
における利用者の発話を対象に、敬語を中心とした言葉
使いと会話の話題の展開というふたつの点において評価
し、適切なアドバイスを下すものであり、そのため、一
般的な敬語に関する文法的知識だけでなく、敬語に関す
る運用知識、会話世界の状況知識、また具体的な会話の
場面ごとの会話の展開パターンを用いることにより、従
来の会話文の内容だけではなく、言葉遣い、話題の流れ
方という状況によって変化する言葉遣いの問題に対して
も、利用者の学習支援を行うことができるようになって
いる。音声により利用者の発話が理解され、会話の状況
に応じた言葉遣いでシステムから応答文が出力されるこ
とにより、利用者は迅速かつ簡便にシステムと会話が可
能となり、より現実に近い学習を行うことができる。
[Advantageous Effects of the Invention] The present invention evaluates two points, that is, word usage centered on honorifics and development of conversation topics, targeting user's utterance in a specific situation set by the system, and appropriate It gives advice, and therefore, by using not only grammatical knowledge about general honorifics but also operational knowledge about honorifics, situational knowledge of the conversation world, and development patterns of conversations for each specific conversation scene, Not only the contents of conventional conversational sentences but also the problem of language usage that changes depending on the situation of language usage and topic flow can be supported by the user. The voice understands the user's utterance, and the system outputs a response sentence in a wording according to the situation of the conversation, so that the user can quickly and easily have a conversation with the system, and learn more realistically. It can be carried out.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の一実施例のブロック図、第2図は処理
装置における機能ブロック図、第3図は処理装置内の処
理手順を表わした流れ図、第4図はシステムの動作を示
した流れ図、第5図は第4図における会話モードの動作
を説明した流れ図、第6図は第4図における評価モード
の動作を説明した流れ図、第7図は第4図における学習
モードの動作を説明した流れ図である。また、第8図は
敬語運用知識データベースおよび敬語文法知識データベ
ースの内容の例、第9図は、対話パターンの例、第10図
はシステムと利用者の会話の一部の例、第11図は会話の
評価の具体的動作例、第12図は会話の評価例、第13図
は、会話の総合評価、ヒント、アドバイスの例である。 1……音声入出力装置、2……ディスプレー 3……処理装置、4……認識部 5……言語処理部、6……発話理解部 7……対話管理部、8……敬語生成部 9……評価部、10……総合評価部 11……出力部、12……敬語文法知識 13……敬語運用知識、14……状況知識 15……対話パターン、16……画像データ
FIG. 1 is a block diagram of an embodiment of the present invention, FIG. 2 is a functional block diagram of a processing apparatus, FIG. 3 is a flow chart showing a processing procedure in the processing apparatus, and FIG. 4 shows an operation of the system. A flow chart, FIG. 5 is a flow chart explaining the operation in the conversation mode in FIG. 4, FIG. 6 is a flow chart explaining the operation in the evaluation mode in FIG. 4, and FIG. 7 is a flow chart explaining the operation in the learning mode in FIG. It is the flow chart which it did. Further, FIG. 8 is an example of contents of the honorific operating knowledge database and honorific grammar knowledge database, FIG. 9 is an example of dialogue pattern, FIG. 10 is an example of a part of conversation between the system and the user, and FIG. 11 is A concrete operation example of conversation evaluation, FIG. 12 is an example of conversation evaluation, and FIG. 13 is an example of comprehensive evaluation of conversation, hints, and advice. 1 ... Voice input / output device, 2 ... Display device 3 ... Processing device, 4 ... Recognition unit 5 ... Language processing unit, 6 ... Utterance understanding unit, 7 ... Dialog management unit, 8 ... Honorifics generation unit 9 …… Evaluation section, 10 …… Comprehensive evaluation section 11 …… Output section, 12 …… Honorific grammar knowledge 13 …… Honorific operation knowledge, 14 …… Situational knowledge 15 …… Dialogue pattern, 16 …… Image data

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】入力された利用者の音声を音韻、文字列と
して認識する音声認識部、認識された文字列から入力文
を生成する言語処理部、入力文を会話状況に照らし合わ
せて理解する会話理解部、敬語に関する文法的知識、会
話状況に関する情報、会話状況に応じた敬語運用のため
の知識及び会話進行のための会話パタンに関する情報を
格納するデータベースとしての大容量記憶装置、データ
ベースから読み出した敬語文法知識、敬語運用知識、会
話状況情報、会話パタンに関する情報を使用して入力さ
れた会話文の表現及び内容を評価する評価部、会話状況
及び会話パタンを参照して入力文に対応した応答を生成
する対話管理部、生成された応答文の状況にあった正し
い表現を与える敬語生成部、利用者の会話文のそれぞれ
の評価を分析して会話マナー学習に当たっての教育方針
を決定し、利用者への学習アドバイスを出力する総合評
価部、及び入力音声に対応した応答音声、利用者の学習
を支援するための文字画像情報を出力する出力部、の各
装置を備えた会話マナー教育システム。
1. A speech recognition unit for recognizing an input user's voice as a phoneme and a character string, a language processing unit for generating an input sentence from the recognized character string, and an understanding of the input sentence in the context of a conversation. Conversation comprehension section, grammatical knowledge about honorifics, information about conversation situations, knowledge for operating honorifics according to conversation situations, and large-capacity storage device as a database that stores information about conversation patterns for conversation progress, read from database The evaluator evaluates the expressions and contents of the conversational sentences input using information on the honorific grammar, the knowledge of honorific operation, conversation situation information, and conversation patterns. Corresponding to the input sentence by referring to the conversation situations and conversation patterns The dialogue management unit that generates the response, the honorific generation unit that gives the correct expression according to the situation of the generated response sentence, and analyze each evaluation of the user's conversation sentence Comprehensive evaluation unit that determines the educational policy for learning manners and outputs learning advice to the user, and output unit that outputs the response voice corresponding to the input voice and character image information to support the user's learning A conversation etiquette education system equipped with each device.
JP17907289A 1989-07-13 1989-07-13 Conversational etiquette education system Expired - Lifetime JP2673831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17907289A JP2673831B2 (en) 1989-07-13 1989-07-13 Conversational etiquette education system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17907289A JP2673831B2 (en) 1989-07-13 1989-07-13 Conversational etiquette education system

Publications (2)

Publication Number Publication Date
JPH0344690A JPH0344690A (en) 1991-02-26
JP2673831B2 true JP2673831B2 (en) 1997-11-05

Family

ID=16059603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17907289A Expired - Lifetime JP2673831B2 (en) 1989-07-13 1989-07-13 Conversational etiquette education system

Country Status (1)

Country Link
JP (1) JP2673831B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3667615B2 (en) * 1991-11-18 2005-07-06 株式会社東芝 Spoken dialogue method and system
WO2007026715A1 (en) * 2005-09-01 2007-03-08 Kagoshima University Simulation system and program
KR101178310B1 (en) * 2011-02-24 2012-08-29 포항공과대학교 산학협력단 Method of managing communication and system for the same
JP5701935B2 (en) * 2013-06-11 2015-04-15 富士ソフト株式会社 Speech recognition system and method for controlling speech recognition system
TWI678686B (en) * 2018-08-23 2019-12-01 國立臺灣師範大學 Interactive education method and teaching electronic device
CN109344229A (en) * 2018-09-18 2019-02-15 深圳壹账通智能科技有限公司 Method, apparatus, computer equipment and the storage medium of dialog analysis evaluation
JP6644938B1 (en) * 2019-08-13 2020-02-12 株式会社フォーサイト Interactive learning system, method, and program

Also Published As

Publication number Publication date
JPH0344690A (en) 1991-02-26

Similar Documents

Publication Publication Date Title
US6853971B2 (en) Two-way speech recognition and dialect system
US9786199B2 (en) System and method for assisting language learning
US7149690B2 (en) Method and apparatus for interactive language instruction
US20070055520A1 (en) Incorporation of speech engine training into interactive user tutorial
CN110797010A (en) Question-answer scoring method, device, equipment and storage medium based on artificial intelligence
US8221126B2 (en) System and method for performing programmatic language learning tests and evaluations
JP2673831B2 (en) Conversational etiquette education system
JP2019061189A (en) Teaching material authoring system
JP2810750B2 (en) Language training equipment
Bang et al. An automatic feedback system for English speaking integrating pronunciation and prosody assessments
KR101944628B1 (en) An One For One Foreign Language Studying System Based On Video Learning
JPH03226785A (en) Linguistic education device with voice recognition device
KR100979561B1 (en) Interactive language learning apparatus
Kasrani et al. A Mobile Cloud Computing Based Independent Language Learning System with Automatic Intelligibility Assessment and Instant Feedback.
JP2899340B2 (en) Language education device with audio output device
KR101983031B1 (en) Language teaching method and language teaching system
Arend et al. Hey Siri, you are challenging the interface between the oral and the written. Some basic reflections on voice-controlled natural language human-Siri talk
Piatykop et al. Digital technologies for conducting dictations in Ukrainian
Chypak et al. AUDIO READING ASSISTANT FOR VISUALLY IMPAIRED PEOPLE
JP2022171538A (en) Foreign language speaking learning system
León-Montaño et al. Design of the architecture for text recognition and reading in an online assessment applied to visually impaired students
Kasrani Development of a Performance Assessment System for Language Learning
KR20200062910A (en) Improved learning providing system for french pronunciation
KR20210086939A (en) One cycle foreign language learning system using mother toungue and method thereof
JP2023076106A (en) Foreign language learning support device, foreign language learning support method, and computer program