JP6285377B2 - Communication skill evaluation feedback device, communication skill evaluation feedback method, and communication skill evaluation feedback program - Google Patents

Communication skill evaluation feedback device, communication skill evaluation feedback method, and communication skill evaluation feedback program Download PDF

Info

Publication number
JP6285377B2
JP6285377B2 JP2015036593A JP2015036593A JP6285377B2 JP 6285377 B2 JP6285377 B2 JP 6285377B2 JP 2015036593 A JP2015036593 A JP 2015036593A JP 2015036593 A JP2015036593 A JP 2015036593A JP 6285377 B2 JP6285377 B2 JP 6285377B2
Authority
JP
Japan
Prior art keywords
utterance
feature
evaluation
skill evaluation
evaluation feedback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015036593A
Other languages
Japanese (ja)
Other versions
JP2016157388A (en
Inventor
えりか 足利
えりか 足利
山田 智広
智広 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015036593A priority Critical patent/JP6285377B2/en
Publication of JP2016157388A publication Critical patent/JP2016157388A/en
Application granted granted Critical
Publication of JP6285377B2 publication Critical patent/JP6285377B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、コミュニケーションスキルをトレーニングする際の演習中に評価された評価結果をフィードバックする技術に関する。   The present invention relates to a technique for feeding back an evaluation result evaluated during an exercise when training communication skills.

人と人とのコミュニケーションを円滑に行うためのスキルをコミュニケーションスキルという。コミュニケーションスキルは、トレーニングにより向上可能であり、スキルの教示、演習、フィードバック、般化を行うことで習得できる。従来、そのスキル測定やフィードバックは専門家又はスキルトレーニングの受講者によって実施されていたが、近年ではコンピュータで行うことが求められている。   Skills for smooth communication between people are called communication skills. Communication skills can be improved by training and can be acquired by teaching skills, practicing, feedback, and generalizing. Conventionally, skill measurement and feedback have been performed by experts or students of skill training, but in recent years, it has been required to perform the measurement with a computer.

そこで、非特許文献1では、就職面接時のコミュニケーションスキルを向上させる技術が記載されている。この技術では、音声を含む映像を取得し、被面接者の発話速度や笑顔の有無等を測定し、その測定結果をフィードバックしている。これにより、被面接者は、面接時における自分自身の行動を把握し、振り返ることができる。   Therefore, Non-Patent Document 1 describes a technique for improving communication skills during a job interview. In this technology, an image including sound is acquired, the utterance speed of the interviewee, the presence / absence of a smile, etc. are measured, and the measurement result is fed back. As a result, the interviewee can grasp and review his / her own behavior during the interview.

また、非特許文献2では、コミュニケーションスキルとは少し異なるが、プレゼンテーションスキルを向上させる技術が記載されている。この技術では、プレゼンテーションの予行演習を録画し、WEB画面上に表示している。これにより、そのスキルを相互に評価することができる。   Non-Patent Document 2 describes a technique for improving presentation skills, although it is slightly different from communication skills. In this technique, a presentation practice exercise is recorded and displayed on a WEB screen. Thereby, the skills can be mutually evaluated.

M. Hoque、外4名、“MACH: My Automated Conversation coacH”、Proc. UbiComp’13、2013年9月、p.697-p.706M. Hoque, 4 others, “MACH: My Automated Conversation coacH”, Proc. UbiComp’13, September 2013, p.697-p.706 原田、外2名、“Webを用いたプレゼンテーション・スキルアップ支援システム−ユーザ間の相互評価と発話音声の自動評価による学習支援−”、電子情報通信学会技研報告,Vol.111、No.473、2012年3月、p.41-p.46Harada and 2 others, “Web-based presentation and skill-up support system -Learning support by mutual evaluation between users and automatic evaluation of spoken speech-", IEICE Technical Report, Vol.111, No.473, March 2012, p.41-p.46

しかしながら、従来の手法は、被スキル測定者の発言や行動の測定結果及びその評価結果を提示するに留まるため、自分自身の行動を改善するために何をどうすれば良いか等、具体的な改善方法を把握することができない。また、否定的な評価結果を提示する場合、その評価結果を提示するのみでは自尊心や自信を低下させてしまう等、被スキル測定者に悪影響を及ぼす恐れがある。   However, since the conventional method only presents the remarks of the skill-measured person and the measurement results and evaluation results, specific improvement methods such as what should be done to improve one's own behavior. I can't figure out. Further, when presenting a negative evaluation result, only presenting the evaluation result may reduce self-esteem and self-confidence, which may adversely affect the skill-measured person.

本発明は、上記事情を鑑みてなされたものであり、人のコミュニケーションスキルを効果的に改善することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to effectively improve human communication skills.

以上の課題を解決するため、請求項1に記載のコミュニケーションスキル評価フィードバック装置は、コミュニケーション中の対象者を撮影した撮像データから複数の特徴を発言毎に解析する解析手段と、前記特徴の度合いに基づく特徴ベクトルを発言毎にクラスタリングするクラスタリング手段と、肯定評価された複数の発言に関する各クラスタの中心ベクトルをそれぞれ算出し、否定評価された発言に関する特徴のベクトルに最も類似する中心ベクトルを選択する選択手段と、選択した中心ベクトルに対応する発言の各特徴の度合いと前記否定評価された発言の各特徴の度合いとの差をそれぞれ算出し、差が最も大きい特徴を抽出する抽出手段と、抽出した特徴を前記否定評価された発言に対する改善要素として出力する出力手段と、を有することを要旨とする。   In order to solve the above problems, the communication skill evaluation feedback apparatus according to claim 1 is configured to analyze a plurality of features for each utterance from imaging data obtained by photographing a subject in communication, and to determine the degree of the features. Clustering means for clustering feature vectors based on each utterance, and selecting a center vector that is most similar to a feature vector related to negatively evaluated utterances by calculating the center vector of each cluster for a plurality of positively evaluated utterances. And a means for calculating the difference between the degree of each feature of the utterance corresponding to the selected center vector and the degree of each feature of the negatively evaluated utterance, and extracting the feature having the largest difference, Output means for outputting a feature as an improvement factor for the negatively evaluated utterance; And it is required to.

請求項2に記載のコミュニケーションスキル評価フィードバック装置は、請求項1に記載のコミュニケーションスキル評価フィードバック装置において、前記解析手段は、前記対象者が発した言語、前記対象者が発した音声の特徴、前記対象者が行った行動の特徴を解析することを要旨とする。   The communication skill evaluation feedback device according to claim 2, wherein the analysis means includes a language emitted by the target person, a feature of a voice emitted by the target person, The gist is to analyze the characteristics of the actions performed by the subject.

請求項3に記載のコミュニケーションスキル評価フィードバック方法は、コミュニケーションスキル評価フィードバック装置で行うコミュニケーションスキル評価フィードバック方法において、コミュニケーション中の対象者を撮影した撮像データから複数の特徴を発言毎に解析する解析ステップと、前記特徴の度合いに基づく特徴ベクトルを発言毎にクラスタリングするクラスタリングステップと、肯定評価された複数の発言に関する各クラスタの中心ベクトルをそれぞれ算出し、否定評価された発言に関する特徴のベクトルに最も類似する中心ベクトルを選択する選択ステップと、選択した中心ベクトルに対応する発言の各特徴の度合いと前記否定評価された発言の各特徴の度合いとの差をそれぞれ算出し、差が最も大きい特徴を抽出する抽出ステップと、抽出した特徴を前記否定評価された発言に対する改善要素として出力する出力ステップと、を有することを要旨とする。   The communication skill evaluation feedback method according to claim 3, wherein the communication skill evaluation feedback method is a communication skill evaluation feedback method performed by a communication skill evaluation feedback device, wherein an analysis step is performed for analyzing a plurality of features for each utterance from imaging data obtained by imaging a subject in communication. A clustering step for clustering feature vectors based on the degree of feature for each utterance, and calculating a center vector of each cluster for a plurality of positively evaluated utterances, and most similar to a feature vector for a negatively evaluated utterance A selection step of selecting a center vector, and calculating a difference between the degree of each feature of the utterance corresponding to the selected center vector and the degree of each feature of the negatively evaluated utterance, and extracting the feature having the largest difference An extraction step, an output step of extracted features is output as an improvement element relative to the negative evaluated remarks, and summarized in that with.

請求項4に記載のコミュニケーションスキル評価フィードバックプログラムは、請求項1又は2に記載のコミュニケーションスキル評価フィードバック装置としてコンピュータを機能させることを要旨とする。   The gist of a communication skill evaluation feedback program according to claim 4 is to cause a computer to function as the communication skill evaluation feedback device according to claim 1 or 2.

本発明によれば、人のコミュニケーションスキルを効果的に向上できる。   According to the present invention, human communication skills can be effectively improved.

コミュニケーションスキル評価フィードバックシステムの全体構成を示す図である。It is a figure which shows the whole structure of a communication skill evaluation feedback system. 解析装置の機能ブロック構成を示す図である。It is a figure which shows the functional block structure of an analyzer. 言語情報の解析処理フローを示す図である。It is a figure which shows the analysis processing flow of language information. コミュニケーションスキルの評価解析処理フローを示す図である。It is a figure which shows the evaluation analysis processing flow of a communication skill. 文書用単語の例を示す図である。It is a figure which shows the example of the word for documents.

本発明は、発言や行動が否定的な評価であった場合、具体的な改善方法をわかりやすく提示することで、否定的な評価を受け入れにくいユーザに対しても肯定的な評価と同等のフィードバックの効果を与えることにある。以下、本発明の一実施の形態について図面を参照して説明する。   The present invention provides a feedback that is equivalent to a positive evaluation even for a user who is difficult to accept a negative evaluation by presenting a specific improvement method in an easy-to-understand manner when a statement or action is a negative evaluation. The effect is to give. Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本実施の形態に係るコミュニケーションスキル評価フィードバックシステムの全体構成を示す図である。該システムは、コミュニケーションスキルをトレーニング中の受講者の発言及び行動を測定し、否定的な評価が得られた発言及び行動については肯定的な評価が得られた発言及び行動との差分を提示する。以下、本システムの構成例について詳述する。   FIG. 1 is a diagram showing an overall configuration of a communication skill evaluation feedback system according to the present embodiment. The system measures the remarks and behaviors of students who are training communication skills, and presents the difference between remarks and behaviors with positive evaluations for remarks and behaviors with negative evaluations. . Hereinafter, a configuration example of this system will be described in detail.

該システムは、受講者の発言及び行動を測定する測定端末2と、受講者の発言及び行動に対する評価を入力する評価端末3と、入力された評価をもとに受講者の発言や行動に対する改善方法を解析する解析装置1と、解析された改善方法を受講者にフィードバックする閲覧端末4と、を備えて構成される。これら全ての端末及び装置は、インターネットやイントラネット等の通信網Nを介して接続されている。端末と装置間では相互通信可能であり、無線・有線は問わない。   The system includes a measurement terminal 2 that measures a student's remarks and actions, an evaluation terminal 3 that inputs evaluations of the remarks and actions of the students, and an improvement on the remarks and actions of the students based on the input evaluations. An analysis apparatus 1 that analyzes the method and a browsing terminal 4 that feeds back the analyzed improvement method to the student are configured. All these terminals and devices are connected via a communication network N such as the Internet or an intranet. The terminal and the device can communicate with each other, regardless of whether they are wireless or wired.

測定端末2は、受講者の発言及び行動を測定するための端末である。受講時に表出した受講者の発言及び行動を撮影し、その撮像データ(映像・音声データ)を解析装置1に送信する。例えば、ビデオカメラ、アイトラッカー、加速度センサを用いる。   The measurement terminal 2 is a terminal for measuring the speech and behavior of the student. The student's remarks and actions expressed at the time of attendance are photographed, and the imaging data (video / audio data) is transmitted to the analysis device 1. For example, a video camera, an eye tracker, or an acceleration sensor is used.

評価端末3は、受講者の発言及び行動を第三者が評価するための端末である。測定端末2で測定された音声データをもとに受講者の発言を文字化して映像データとともに画面に表示する。そして、表示された受講者の発言や行動に対し、説明力や理解力といった各指標に対する評価値の入力を要求し、入力された評価データを解析装置1に送信する。例えば、パソコン、タブレット端末を用いる。   The evaluation terminal 3 is a terminal for a third party to evaluate a student's remarks and actions. Based on the audio data measured by the measuring terminal 2, the student's remarks are converted into text and displayed together with the video data on the screen. Then, for the remarks and actions of the displayed student, the input of evaluation values for each index such as explanatory power and understanding power is requested, and the input evaluation data is transmitted to the analysis device 1. For example, a personal computer or a tablet terminal is used.

閲覧端末4は、受講者の発言や行動について解析装置1で解析された改善方法を画面や音声で出力するための端末である。フィードバックすることを目的とするため、トレーニングを受けた受講者により使用される。例えば、タブレット端末を用いる。   The browsing terminal 4 is a terminal for outputting the improvement method analyzed by the analysis apparatus 1 with respect to a student's remarks and actions by a screen or voice. Used by trained students for the purpose of providing feedback. For example, a tablet terminal is used.

次に、解析装置1について説明する。解析装置1は、測定端末2からの映像・音声データと評価端末3からの評価データとを用いて、受講者のコミュニケーションスキルの改善方法を解析する装置である。   Next, the analysis apparatus 1 will be described. The analysis device 1 is a device that analyzes the improvement method of the communication skills of the student using the video / audio data from the measurement terminal 2 and the evaluation data from the evaluation terminal 3.

解析装置1の機能ブロック構成を図2に示す。該解析装置1は、映像・音声データから受講者の発言や行動を解析し、評価データをもとに各発言を肯定的評価と否定的評価に分類して、否定的評価の発言に対する改善方法を解析する解析部11と、受講者の発言や行動を評価するための評価項目を評価端末3に送信し、該評価端末3で入力された評価データや解析部11で解析された改善方法を入出力する入出力部12と、を備えて構成される。以下、各部の機能について詳述する。   A functional block configuration of the analysis apparatus 1 is shown in FIG. The analysis device 1 analyzes a student's speech and behavior from video / audio data, classifies each speech into a positive evaluation and a negative evaluation based on the evaluation data, and an improvement method for negative evaluation speech The analysis unit 11 that analyzes the evaluation item and the evaluation items for evaluating the remarks and actions of the student are transmitted to the evaluation terminal 3, and the evaluation data input by the evaluation terminal 3 and the improvement method analyzed by the analysis unit 11 And an input / output unit 12 for inputting and outputting. Hereinafter, the function of each part will be described in detail.

解析部11は、測定端末2からの映像・音声データを用いて、言語情報を解析する言語情報解析部111と、メタ言語情報を解析するメタ言語情報解析部112と、非言語情報を解析する非言語情報解析部113と、それらの解析結果と評価端末3からの評価データとを用いて受講者の発言や行動に対する改善方法を解析する評価解析部114と、改善方法を記載した文章を生成するための単語を記憶しておく文章用単語DB115と、を備えて構成される。   The analysis unit 11 uses the video / audio data from the measurement terminal 2 to analyze the language information analysis unit 111 that analyzes language information, the meta language information analysis unit 112 that analyzes meta language information, and the non-language information. A non-linguistic information analysis unit 113, an evaluation analysis unit 114 that analyzes an improvement method for a student's remarks and behavior using the analysis result and the evaluation data from the evaluation terminal 3, and a sentence that describes the improvement method is generated And a sentence word DB 115 for storing words to be used.

入出力部12は、受講者の発言及び行動とそれらに対する評価を入力するための評価項目とを含む評価情報を評価端末3に出力する評価情報出力部121と、評価端末3からの評価データを受信する評価結果受信部122と、解析部11で解析された改善方法を閲覧端末4に出力する解析結果出力部123と、を備えて構成される。   The input / output unit 12 outputs the evaluation information including the remarks and actions of the students and the evaluation items for inputting the evaluations to the evaluation terminal 3 and the evaluation data from the evaluation terminal 3. The evaluation result receiving unit 122 to receive and the analysis result output unit 123 to output the improvement method analyzed by the analysis unit 11 to the browsing terminal 4 are configured.

続いて、解析装置1で行う解析処理について説明する。   Subsequently, an analysis process performed by the analysis apparatus 1 will be described.

まず、図3を参照しながら、言語情報解析部111で行う言語情報の解析処理について説明する。言語情報解析部111では、測定端末2で測定された音声データから、発話区間を抽出して発言開始時刻と発言終了時刻を算出する処理と、音声認識により発話単語を推定する処理とを実行する。発話とは言語が発せられた音声を指し、発言とは同じ受講者が連続して発した発話を指す。   First, language information analysis processing performed by the language information analysis unit 111 will be described with reference to FIG. The language information analysis unit 111 executes a process of extracting a speech section from speech data measured by the measurement terminal 2 and calculating a speech start time and a speech end time, and a process of estimating a speech word by speech recognition. . An utterance refers to a voice uttered by a language, and an utterance refers to an utterance continuously uttered by the same student.

まず、ステップS101において、音声データから人が発している音の時間帯を発話区間として抽出する。例えば、音のレベルに対して予め閾値を設けておき、該閾値を超える音であれば発話区間とする。これ以外の抽出方法を用いてもよい。   First, in step S101, a time zone of a sound uttered by a person is extracted from speech data as an utterance section. For example, a threshold is set in advance for the sound level, and if the sound exceeds the threshold, the speech section is set. Other extraction methods may be used.

次に、ステップS102において、抽出した各発話区間の発話開始時刻と発話終了時刻を算出する。例えば、入力された音声データの開始時刻を0とし、抽出した発話区間の開始時刻を「0:00:03.23」、終了時刻を「0:00:13.55」のように算出する。「」内は「時間:分:秒.ミリ秒」を指す。   Next, in step S102, the utterance start time and utterance end time of each extracted utterance section are calculated. For example, the start time of the input voice data is set to 0, the start time of the extracted speech section is calculated as “0: 00: 03.23”, and the end time is calculated as “0: 00: 13.55”. “” Indicates “hour: minute: second.millisecond”.

次に、ステップS103において、発話区間の音声データに対して音声認識を行い、各発話区間で発話された発話単語を取得する。音声認識については、既存の音声認識ツールや音声認識手法を用いる。なお、取得した発話単語は、後の処理部に送るため、一時的に明示しない記憶領域に記憶しておく。   Next, in step S103, speech recognition is performed on the speech data of the utterance section, and the utterance word uttered in each utterance section is acquired. For speech recognition, existing speech recognition tools and speech recognition methods are used. Note that the acquired utterance word is stored in a storage area that is not temporarily specified in order to be sent to a later processing unit.

次に、ステップS104において、時間的に隣接する2つの発話区間の間の時間を求め、予め設けておいた閾値thと比較する。具体的には、時系列で1番始めの発話区間を除き、現在処理中の発話区間の発話開始時刻と1つ前の発話区間の発話終了時刻との差分を発話間時間として求め、閾値thを比較する。   Next, in step S104, the time between two utterance intervals that are temporally adjacent to each other is obtained and compared with a threshold value th that is set in advance. Specifically, the difference between the utterance start time of the currently processed utterance section and the utterance end time of the previous utterance section is obtained as the inter-utterance time, except for the first utterance section in time series, and the threshold th Compare

次に、発話間時間が閾値thよりも小さい場合、ステップS105において、現在処理中の発話区間の話者が1つ前の発話区間の話者と同一であるか否かを判定する。例えば、各発話区間の発話時間における映像データを解析し、口が動いている受講者をその発話の話者として識別する。そして、2つの発話区間で識別された両話者が同一であるかに基づき判定する。なお、話者の識別方法については、声紋を照合する手法等、その他の識別方法を用いてもよい。   Next, when the inter-speech time is smaller than the threshold th, in step S105, it is determined whether or not the speaker in the utterance section currently being processed is the same as the speaker in the previous utterance section. For example, video data at the utterance time of each utterance section is analyzed, and a student whose mouth is moving is identified as a speaker of the utterance. Then, the determination is made based on whether both speakers identified in the two utterance intervals are the same. As a speaker identification method, other identification methods such as a method of collating voiceprints may be used.

次に、1つ前の発話区間の話者と同じである場合、ステップS106において、現在処理中の発話区間の発話と1つ前の発話区間の発話とを1つの発言とする。   Next, when the speaker is the same as the speaker in the previous utterance section, in step S106, the utterance in the currently processed utterance section and the utterance in the previous utterance section are set as one utterance.

一方、発話間時間が閾値thよりも大きい場合、又は、1つ前の発話区間の話者と異なる場合、ステップS107において、現在処理中の発話区間の発話と1つ前の発話区間の発話とを異なる発言とする。   On the other hand, if the inter-speech time is greater than the threshold th or if it is different from the speaker in the previous utterance section, the utterance in the utterance section currently being processed and the utterance in the previous utterance section are determined in step S107. Is a different statement.

最後に、ステップS108において、ステップS106又はステップS107で設定した発言について発言開始時刻と発言終了時刻を算出する。   Finally, in step S108, a speech start time and a speech end time are calculated for the speech set in step S106 or step S107.

以降、全ての発話区間に対してステップS102からステップS108を繰り返す。その後、各発言の発話単語と発言開始時刻・発言終了時刻を言語情報としてメタ言語情報解析部112と評価解析部114に送信する。   Thereafter, steps S102 to S108 are repeated for all utterance sections. Thereafter, the utterance word of each utterance and the utterance start time and utterance end time are transmitted as language information to the metalanguage information analysis unit 112 and the evaluation analysis unit 114.

次に、メタ言語情報解析部112で行うメタ言語解析処理について説明する。メタ言語情報解析部112では、測定端末2で測定された音声データと、言語情報解析部111で解析された音声認識結果(各発言の発話単語)とから、発言内容以外の音声の特徴を解析・抽出し、その特徴量をメタ言語情報として時刻情報を含めて評価解析部114に送信する。例えば、発話速度、トーン、音量を解析・抽出する。その他の特徴でもよい。なお、発言内容以外の音声の特徴の抽出手段・抽出方法については、既存の抽出ツールや抽出手法を用いる。   Next, a meta language analysis process performed by the meta language information analysis unit 112 will be described. The meta-language information analysis unit 112 analyzes voice features other than the utterance contents from the voice data measured by the measurement terminal 2 and the voice recognition results (uttered words of each utterance) analyzed by the language information analysis unit 111. Extract and send the feature amount as meta language information to the evaluation analysis unit 114 including time information. For example, utterance speed, tone, and volume are analyzed and extracted. Other features may be used. Note that existing extraction tools and extraction methods are used for the voice feature extraction means / extraction method other than the speech content.

次に、非言語情報解析部113で行う非言語解析処理について説明する。非言語情報解析部113では、測定端末2で測定された映像データから、発言時の言語以外の特徴を解析・抽出し、その特徴量を非言語情報として時刻情報を含めて評価解析部114に送る。例えば、視線、頭部動作、ジェスチャ、表情を解析・抽出する。その他の特徴でもよい。なお、言語以外の特徴の抽出手段・抽出方法については、既存の抽出ツールや抽出手法を用いる。   Next, non-language analysis processing performed by the non-language information analysis unit 113 will be described. The non-linguistic information analysis unit 113 analyzes and extracts features other than the language at the time of utterance from the video data measured by the measurement terminal 2, and includes the time information as non-linguistic information in the evaluation analysis unit 114. send. For example, the line of sight, head movement, gesture, and facial expression are analyzed and extracted. Other features may be used. Note that existing extraction tools and extraction methods are used for extraction means / extraction methods of features other than language.

次に、図4を参照しながら、評価解析部114で行う評価解析処理について説明する。評価解析部114では、解析した言語情報、メタ言語情報、非言語情報を発言毎にベクトル化し、発言に対する評価者の評価結果に基づき各発言を肯定的評価(以下、肯定的評価の発言ベクトル)と否定的評価(以下、否定的評価の発言ベクトル)に分類する。そして、否定的評価の発言ベクトルと肯定的評価の発言ベクトルとを比較し、否定的評価の発言の修正案を提示するための特徴量を抽出する。   Next, the evaluation analysis process performed by the evaluation analysis unit 114 will be described with reference to FIG. The evaluation analysis unit 114 vectorizes the analyzed linguistic information, meta linguistic information, and non-linguistic information for each utterance, and positively evaluates each utterance based on the evaluator's evaluation result for the utterance (hereinafter, a positive evaluation utterance vector). And negative evaluation (hereinafter referred to as negative evaluation utterance vector). Then, the negative evaluation message vector is compared with the positive evaluation message vector, and a feature amount for presenting a correction plan of the negative evaluation message is extracted.

まず、ステップS201において、各発言に対して、発言時間に含まれる言語情報、メタ言語情報、非言語情報を取得する。例えば、1つ目の発言時間が「0:00:03.23」から「0:00:21.52」の場合、この時間内の音声認識結果、発話速度、トーン、音量、注視対象、頷き、首ふり、手の動き、表情を取得する。   First, in step S201, language information, metalanguage information, and non-language information included in the speech time are acquired for each speech. For example, if the first speech time is from “0: 00: 03.23” to “0: 00: 21.52”, the speech recognition result, speech rate, tone, volume, target to watch, whisper, neck swing, Get hand movements and facial expressions.

次に、ステップS202において、取得した各特徴を数値化する。数値化方法については、特徴量が加算可能な値であれば総数とする。時間の経過に伴い変動する値であれば発言時間内の平均値とする。発言時間内でいずれかに分類可能な測定データであれば発言時間内の割合とする。   Next, in step S202, each acquired feature is digitized. Regarding the numerical method, if the feature amount can be added, the total number is used. If the value fluctuates with time, the average value within the speaking time is used. If the measurement data can be classified into any one within the speaking time, the ratio is within the speaking time.

例えば、音声認識結果については、発言内の自立語数をカウントし、各自立語の難易度{n(n:自然数)段階で表現}の割合を算出する。発話単語の難易度については、既存の技術を用いて算出する。例えば、日本語能力試験の出題基準に則って難易度を判定する。   For example, for the speech recognition result, the number of independent words in the utterance is counted, and the ratio of the difficulty level {represented in n (n: natural number) steps) of each independent word is calculated. The difficulty level of the spoken word is calculated using existing technology. For example, the difficulty level is determined according to the Japanese Language Proficiency Test questions.

発話速度、トーン、音量については、発言内の平均値を算出する。注視対象については、発言内での各注視対象の割合を算出する。その際、それぞれの割合を加算すると合計が1となるようにする。頷き、首ふり、手の動きについては、発言内のそれぞれの回数をカウントする。表情については、発言内の各表情の割合を算出する。その際、それぞれの割合を加算すると合計が1となるようにする。   For the speaking rate, tone, and volume, the average value in the speech is calculated. For the gaze target, the ratio of each gaze target in the statement is calculated. At that time, adding the respective ratios, the total is set to 1. For whispering, neck swinging, and hand movements, count the number of times in each statement. For facial expressions, the ratio of each facial expression in the statement is calculated. At that time, adding the respective ratios, the total is set to 1.

次に、ステップS203において、数値化した各特徴量を多次元ベクトルとして表現する。例えば、[単語数,単語難易度(1),単語難易度(2),…,単語難易度(n),発話速度,トーン,音量,注視対象(a),注視対象(b),…,注視対象(その他),頷き,首ふり,手の動き,表情(笑),表情(怒),表情(悲)…,表情(無)]のように、各特徴を要素とした多次元ベクトルとして表現する。   Next, in step S203, each digitized feature quantity is expressed as a multidimensional vector. For example, [number of words, word difficulty level (1), word difficulty level (2),..., Word difficulty level (n), speech rate, tone, volume, gaze target (a), gaze target (b),. As a gaze target (others), whispering, swinging neck, hand movement, facial expression (laugh), facial expression (anger), facial expression (sad) ..., facial expression (nothing)] Express.

ステップS201からステップS203は全ての発言に対して実施される。そして、全ての発言に対してベクトル化を行った後、ステップS204において、各特徴量を正規化する。この正規化とは、多変量解析を実施するための正規化であり、各特徴量の平均が0、分散が1となるように変換することを指す。   Steps S201 to S203 are performed for all statements. Then, after vectorization is performed on all utterances, each feature is normalized in step S204. This normalization is normalization for performing multivariate analysis and refers to conversion such that the average of each feature amount is 0 and the variance is 1.

次に、ステップS205において、評価結果受信部122から送信された評価データを参照し、肯定的と評価された各発言の多次元ベクトルを発言毎にそれぞれクラスタリングする。   Next, in step S205, the evaluation data transmitted from the evaluation result receiving unit 122 is referred to, and the multidimensional vectors of each utterance evaluated as positive are clustered for each utterance.

肯定的な評価とは、評価データにおいて中央値よりも高い評価となる評価を指す。例えば、2段階評価(良,悪)であれば、良が肯定的な評価となる。5段階評価(大変良い,良い,どちらでもない,悪い,大変悪い)であれば、大変良い又は良いが肯定的な評価となる。なお、クラスタリングについては、クラスタの重複なくベクトルを分類するため、ハードクラスタリング手法を用いる。例えば、k−meansを用いる。これ以外のクラスタリング手法を用いてもよい。   A positive evaluation refers to an evaluation that is higher than the median value in the evaluation data. For example, if a two-level evaluation (good, bad), good is a positive evaluation. A five-point rating (very good, good, neither, bad, very bad) gives a very good or good but positive rating. For clustering, a hard clustering method is used to classify vectors without cluster overlap. For example, k-means is used. Other clustering methods may be used.

次に、ステップS206において、各クラスタの中心ベクトルをそれぞれ算出し、これを肯定的な発言パターンとする。これにより、肯定的と評価された全ての発言に対して中心ベクトルが個々に定義される。   Next, in step S206, the center vector of each cluster is calculated, and this is used as a positive speech pattern. Thus, a central vector is individually defined for all utterances evaluated as positive.

これ以降の処理は、否定的評価の発言に対する改善方法を解析するため、全ての否定的評価の発言ベクトルに対して実行する。   The subsequent processing is executed for all negative evaluation message vectors in order to analyze an improvement method for negative evaluation messages.

次に、ステップS207において、否定的評価の発言ベクトルと複数の中心ベクトルとを比較し、否定的評価の発言ベクトルに最も近い中心ベクトル(=肯定的な発言パターン)を選択する。   Next, in step S207, the negative evaluation message vector is compared with a plurality of center vectors, and the center vector (= positive statement pattern) closest to the negative evaluation message vector is selected.

例えば、否定的評価の発言ベクトルと各中心ベクトルとの類似度をそれぞれ算出し、最も類似度が高い中心ベクトルを抽出する。類似度の算出方法については、例えば、2つのベクトルのなす角を求め、該なす角が小さいほど類似度を大きくする方法が考えられる。その他、2つのベクトルの距離を求め、該距離が小さいほど類似度を大きくする方法がある。これら以外の算出方法を用いてもよい。なお、否定的評価の発言ベクトルについては、ステップS205と同様に多次元ベクトルをクラスタリングすることで求めてもよい。   For example, the similarity between the negative evaluation message vector and each center vector is calculated, and the center vector having the highest similarity is extracted. As a method of calculating the similarity, for example, a method of obtaining an angle formed by two vectors and increasing the similarity as the angle formed is smaller can be considered. In addition, there is a method of obtaining the distance between two vectors and increasing the similarity as the distance is smaller. A calculation method other than these may be used. Note that a negative evaluation message vector may be obtained by clustering multidimensional vectors in the same manner as in step S205.

次に、ステップS208において、上記否定的評価の発言ベクトルの各特徴量と上記最も類似度の高い中心ベクトルの各特徴量との差分をそれぞれ求め、差分の絶対値が最も大きい特徴量を修正すべき要素として抽出する。   Next, in step S208, a difference between each feature quantity of the negative evaluation speech vector and each feature quantity of the center vector having the highest similarity is obtained, and the feature quantity having the largest absolute value of the difference is corrected. Extract as a power element.

次に、ステップS209において、抽出した修正要素をもとに、受講者に提示する具体的な行動の修正案となる文章の目的語を生成する。この修正案となる文章をアドバイス文と呼ぶ。   Next, in step S209, based on the extracted correction element, a text object that is a specific action correction plan to be presented to the student is generated. The text that becomes the amendment proposal is called an advice text.

具体的には、「XXをYYすると良くなります」というようなアドバイス文のフォーマットを予め用意しておき、修正要素をもとにXXの単語を図5の文章用単語DB115から選択する。例えば、修正要素が発話速度であれば、XXとして「話す速さ」という単語が選択される。   Specifically, an advice sentence format such as “It is better to YY XX” is prepared in advance, and the word XX is selected from the sentence word DB 115 of FIG. 5 based on the correction element. For example, if the correction factor is the speaking speed, the word “speaking speed” is selected as XX.

最後に、ステップS210において、ステップS208で求めた差分の正負(プラス又はマイナス)をもとに、上記アドバイス文の動詞を生成する。具体的には、±符号によって上記アドバイス文のフォーマットのYYの単語を文章用単語DB115から選択する。例えば、修正要素が発話速度であり、±符号がプラスであれば、YYとして「遅く」という単語が選択される。   Finally, in step S210, the verb of the advice sentence is generated based on the sign of the difference obtained in step S208 (plus or minus). Specifically, the YY word in the advice sentence format is selected from the sentence word DB 115 by the ± sign. For example, if the correction factor is the speech rate and the plus or minus sign is plus, the word “slow” is selected as YY.

ステップS207からステップS210は全ての否定的評価の発言ベクトルに実施される。その後、言語・メタ・非言語の各解析結果と、それに対する評価者の評価結果(=評価データ)と、否定的評価の発言に対するアドバイス文とを、解析結果出力部123に送信する。   Steps S207 to S210 are performed on all negative evaluation speech vectors. Thereafter, each analysis result of language, meta, and non-language, an evaluation result of the evaluator (= evaluation data), and an advice sentence for a negative evaluation statement are transmitted to the analysis result output unit 123.

次に、評価情報出力部121で行う評価情報の出力処理について説明する。評価情報出力部121では、評価者が評価値を入力する際に、どの発言に対する評価であるかをわかりやすくするために、受講者の発言を文字化した発言データと該発言を評価するための評価項目とを送信する。それら2つのデータを1つの発言が終了する度(=ステップS107が実行される度)に評価端末3に送信し、発言毎に評価値の入力を評価者に促す。   Next, evaluation information output processing performed by the evaluation information output unit 121 will be described. In the evaluation information output unit 121, when the evaluator inputs an evaluation value, in order to make it easy to understand which utterance is the evaluation, the evaluation data output unit 121 is used to evaluate the utterance data and the utterance data in which the student's utterance is converted to text Send evaluation items. These two data are transmitted to the evaluation terminal 3 every time one statement ends (= every time step S107 is executed), and the evaluator is prompted to input an evaluation value for each statement.

なお、発言データについては、ステップS101からステップS103で行う処理と同様の処理を行うことで取得する。評価項目については、予め解析装置1に入力しておく。評価項目とは、評価者が会話を評価するための項目であり、例えば、「内容がわかりやすかったか」、「相手に自分の意思を伝えているか」等、主観的及び抽象的な評価項目を用いる。   Note that the utterance data is acquired by performing the same processing as the processing performed from step S101 to step S103. Evaluation items are input to the analysis apparatus 1 in advance. An evaluation item is an item for an evaluator to evaluate a conversation. For example, subjective or abstract evaluation items such as “Is the content easy to understand” or “Is my intention communicated to the other party”? Use.

次に、評価結果受信部122で行う評価結果の受信処理について説明する。評価結果受信部122では、評価者により評価端末3で入力された評価データを受信し、評価解析部114へ送信する。評価解析部114へ送信する際には、どの発言に対する評価であるかがわかるように、発言開始時刻・発言終了時刻の時間情報を付与して送信する。   Next, an evaluation result reception process performed by the evaluation result receiving unit 122 will be described. The evaluation result receiving unit 122 receives the evaluation data input from the evaluation terminal 3 by the evaluator and transmits it to the evaluation analysis unit 114. When transmitting to the evaluation analysis unit 114, the time information of the speech start time and the speech end time is added and transmitted so that it can be understood which speech is the evaluation.

次に、解析結果出力部123で行う解析結果の出力処理について説明する。解析結果出力部123では、評価解析部114から送信された、全ての測定データ(言語情報、メタ言語情報、非言語情報)と、それに対する評価者の評価結果と、否定的評価の発言に対するアドバイス文とを提示するための表示データを生成する。   Next, analysis result output processing performed by the analysis result output unit 123 will be described. In the analysis result output unit 123, all the measurement data (language information, meta language information, non-linguistic information) transmitted from the evaluation analysis unit 114, the evaluation result of the evaluator for the measurement data, and advice for negative evaluation remarks Display data for presenting a sentence is generated.

表示データは、閲覧端末4で閲覧可能な形式であればどのような形式でもよい。例えば、Webブラウザで閲覧可能なHTMLファイル形式がある。測定データは、発言毎のデータであることが分かるように、棒グラフや折れ線グラフ等のグラフで表示する。評価結果は、そのグラフ上に重畳して表示してもよいし、データを選択(例えばマウスオーバーのように1つのデータにフォーカスされるようなインタラクション操作)した場合に表示してもよい。各測定値が示すデータの評価が肯定的であるか否定的であるかがわかるような表示とする。   The display data may be in any format as long as it can be viewed on the browsing terminal 4. For example, there is an HTML file format that can be viewed with a Web browser. The measurement data is displayed as a graph such as a bar graph or a line graph so that it can be understood that it is data for each statement. The evaluation result may be displayed superimposed on the graph, or may be displayed when data is selected (for example, an interaction operation that focuses on one data such as mouse over). The display is such that it can be seen whether the evaluation of the data indicated by each measurement value is positive or negative.

アドバイス文は、受講者が否定的な評価のデータを選択した場合に表示してもよいし、否定的な評価のデータの近くに予め表示しておいてもよい。その際、どのデータに対するアドバイス文であるかがわかるような表示とする。   The advice sentence may be displayed when the student selects negative evaluation data, or may be displayed in advance near the negative evaluation data. At that time, the display is made so that it can be understood which data is the advice sentence.

本実施の形態によれば、否定的な評価を受けた受講者の各発言に対して改善方法を具体的に提示するため、否定的な評価を受け入れにくいユーザに対しても肯定的な評価と同等のフィードバックの効果を与えることができ、受講者のコミュニケーションスキルを効果的に向上できる。   According to the present embodiment, since the improvement method is specifically presented for each utterance of the student who has received a negative evaluation, a positive evaluation can be performed even for a user who is difficult to accept a negative evaluation. Equivalent feedback effect can be given, and the communication skills of students can be effectively improved.

最後に、本発明の効果について説明する。従来の技術では、コミュニケーション時の発言や行動をコンピュータで測定し、その測定値を提示する、又は、コミュニケーションの良し悪しを提示するだけであった。一方、本発明は、人が行った評価とコンピュータで解析した発言及び行動とを関連付け、否定的な評価が得られた行動に対しては、肯定的な評価が得られた行動とどのような特徴がどの程度異なっているかを提示する。つまり、評価結果から自動的に生成されたアドバイス文により具体的な改善方法を提示するので、否定的な評価を受け入れにくい受講者にとっても肯定的な評価と同等のコミュニケーションスキル向上効果を得ることができる。   Finally, the effect of the present invention will be described. In the prior art, the remarks and actions during communication are measured by a computer and the measured values are presented or the quality of communication is simply presented. On the other hand, the present invention relates the evaluation performed by a person with the utterances and behaviors analyzed by a computer, and the behavior obtained with a positive evaluation for the behavior obtained with a negative evaluation. Present how different the features are. In other words, since a specific improvement method is presented by the advice sentence automatically generated from the evaluation result, it is possible to obtain the same communication skill improvement effect as a positive evaluation even for students who are difficult to accept a negative evaluation. it can.

最後に、本実施の形態で説明した解析装置1は、CPU等の演算機能やメモリ等の記憶機能を備えたコンピュータで実現できる。また、解析装置1としてとしてコンピュータを機能させるためのプログラムや該プログラムの記憶媒体を作成することも可能である。   Finally, the analysis apparatus 1 described in the present embodiment can be realized by a computer having a calculation function such as a CPU and a storage function such as a memory. It is also possible to create a program for causing a computer to function as the analysis apparatus 1 and a storage medium for the program.

1…解析装置(コミュニケーションスキル評価フィードバック装置)
11…解析部
111…言語情報解析部
112…メタ言語情報解析部
113…非言語情報解析部
114…評価解析部
115…文章用単語DB
12…入出力部
121…評価情報出力部
122…評価結果受信部
123…解析結果出力部
2…測定端末
3…評価端末
4…閲覧端末
S101〜S108,S201〜S210…ステップ
1 ... Analysis device (communication skill evaluation feedback device)
DESCRIPTION OF SYMBOLS 11 ... Analysis part 111 ... Language information analysis part 112 ... Meta language information analysis part 113 ... Non-language information analysis part 114 ... Evaluation analysis part 115 ... Word DB for sentences
DESCRIPTION OF SYMBOLS 12 ... Input / output part 121 ... Evaluation information output part 122 ... Evaluation result receiving part 123 ... Analysis result output part 2 ... Measurement terminal 3 ... Evaluation terminal 4 ... Viewing terminal S101-S108, S201-S210 ... Step

Claims (4)

コミュニケーション中の対象者を撮影した撮像データから複数の特徴を発言毎に解析する解析手段と、
前記特徴の度合いに基づく特徴ベクトルを発言毎にクラスタリングするクラスタリング手段と、
肯定評価された複数の発言に関する各クラスタの中心ベクトルをそれぞれ算出し、否定評価された発言に関する特徴のベクトルに最も類似する中心ベクトルを選択する選択手段と、
選択した中心ベクトルに対応する発言の各特徴の度合いと前記否定評価された発言の各特徴の度合いとの差をそれぞれ算出し、差が最も大きい特徴を抽出する抽出手段と、
抽出した特徴を前記否定評価された発言に対する改善要素として出力する出力手段と、
を有することを特徴とするコミュニケーションスキル評価フィードバック装置。
An analysis means for analyzing a plurality of features for each utterance from imaging data obtained by photographing a subject in communication;
Clustering means for clustering feature vectors based on the degree of features for each utterance;
Selecting means for calculating a center vector of each cluster related to a plurality of positively evaluated utterances, and selecting a center vector most similar to a feature vector related to a negatively evaluated utterance;
Extraction means for calculating the difference between the degree of each feature of the speech corresponding to the selected center vector and the degree of each feature of the negatively evaluated speech, and extracting the feature having the largest difference;
Output means for outputting the extracted feature as an improvement factor for the negatively evaluated utterance;
A communication skill evaluation feedback device characterized by comprising:
前記解析手段は、
前記対象者が発した言語、前記対象者が発した音声の特徴、前記対象者が行った行動の特徴を解析することを特徴とする請求項1に記載のコミュニケーションスキル評価フィードバック装置。
The analysis means includes
The communication skill evaluation feedback apparatus according to claim 1, wherein a language uttered by the target person, a feature of a voice uttered by the target person, and a feature of an action performed by the target person are analyzed.
コミュニケーションスキル評価フィードバック装置で行うコミュニケーションスキル評価フィードバック方法において、
コミュニケーション中の対象者を撮影した撮像データから複数の特徴を発言毎に解析する解析ステップと、
前記特徴の度合いに基づく特徴ベクトルを発言毎にクラスタリングするクラスタリングステップと、
肯定評価された複数の発言に関する各クラスタの中心ベクトルをそれぞれ算出し、否定評価された発言に関する特徴のベクトルに最も類似する中心ベクトルを選択する選択ステップと、
選択した中心ベクトルに対応する発言の各特徴の度合いと前記否定評価された発言の各特徴の度合いとの差をそれぞれ算出し、差が最も大きい特徴を抽出する抽出ステップと、
抽出した特徴を前記否定評価された発言に対する改善要素として出力する出力ステップと、
を有することを特徴とするコミュニケーションスキル評価フィードバック方法。
In the communication skill evaluation feedback method performed by the communication skill evaluation feedback device,
An analysis step for analyzing a plurality of features for each utterance from imaging data obtained by photographing a subject in communication;
A clustering step of clustering feature vectors based on the degree of features for each utterance;
A selection step of calculating a center vector of each cluster related to a plurality of positively evaluated utterances, and selecting a center vector most similar to a vector of features related to negatively evaluated utterances;
An extraction step of calculating the difference between the degree of each feature of the utterance corresponding to the selected center vector and the degree of each feature of the negatively evaluated utterance, and extracting the feature having the largest difference;
An output step of outputting the extracted feature as an improvement factor for the negatively evaluated utterance;
A communication skill evaluation feedback method characterized by comprising:
請求項1又は2に記載のコミュニケーションスキル評価フィードバック装置としてコンピュータを機能させることを特徴とするコミュニケーションスキル評価フィードバックプログラム。   A communication skill evaluation feedback program for causing a computer to function as the communication skill evaluation feedback device according to claim 1.
JP2015036593A 2015-02-26 2015-02-26 Communication skill evaluation feedback device, communication skill evaluation feedback method, and communication skill evaluation feedback program Active JP6285377B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015036593A JP6285377B2 (en) 2015-02-26 2015-02-26 Communication skill evaluation feedback device, communication skill evaluation feedback method, and communication skill evaluation feedback program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015036593A JP6285377B2 (en) 2015-02-26 2015-02-26 Communication skill evaluation feedback device, communication skill evaluation feedback method, and communication skill evaluation feedback program

Publications (2)

Publication Number Publication Date
JP2016157388A JP2016157388A (en) 2016-09-01
JP6285377B2 true JP6285377B2 (en) 2018-02-28

Family

ID=56826131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015036593A Active JP6285377B2 (en) 2015-02-26 2015-02-26 Communication skill evaluation feedback device, communication skill evaluation feedback method, and communication skill evaluation feedback program

Country Status (1)

Country Link
JP (1) JP6285377B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6855737B2 (en) * 2016-10-05 2021-04-07 富士ゼロックス株式会社 Information processing equipment, evaluation systems and programs
JP7354992B2 (en) * 2020-11-19 2023-10-03 トヨタ自動車株式会社 Comment evaluation system, comment evaluation method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5591772B2 (en) * 2011-08-25 2014-09-17 日本電信電話株式会社 Context-dependent estimation device, utterance clustering device, method, and program
JP6101985B2 (en) * 2013-01-11 2017-03-29 Kddi株式会社 Program, terminal device and data processing method
JP5947237B2 (en) * 2013-03-22 2016-07-06 日本電信電話株式会社 Emotion estimation device, emotion estimation method, and program

Also Published As

Publication number Publication date
JP2016157388A (en) 2016-09-01

Similar Documents

Publication Publication Date Title
CN115413348B (en) System and method for automatically verifying and quantifying interview question answers
US10706873B2 (en) Real-time speaker state analytics platform
US11551804B2 (en) Assisting psychological cure in automated chatting
CN107818798B (en) Customer service quality evaluation method, device, equipment and storage medium
US11455985B2 (en) Information processing apparatus
JP6617053B2 (en) Utterance semantic analysis program, apparatus and method for improving understanding of context meaning by emotion classification
US20170213190A1 (en) Method and system for analysing subjects
US9934779B2 (en) Conversation analyzing device, conversation analyzing method, and program
US11080723B2 (en) Real time event audience sentiment analysis utilizing biometric data
Morales et al. A linguistically-informed fusion approach for multimodal depression detection
CN112749869A (en) Adaptive job vacancy matching system and method
US20210271864A1 (en) Applying multi-channel communication metrics and semantic analysis to human interaction data extraction
KR102444012B1 (en) Device, method and program for speech impairment evaluation
US20230176911A1 (en) Task performance adjustment based on video analysis
US11361754B2 (en) Method and system for speech effectiveness evaluation and enhancement
JP2019133451A (en) Evaluation method, evaluation device, evaluation program, and evaluation system
KR101747712B1 (en) interview auto recognizetion real-time management method by smart phone
CN114138960A (en) User intention identification method, device, equipment and medium
JP6285377B2 (en) Communication skill evaluation feedback device, communication skill evaluation feedback method, and communication skill evaluation feedback program
CN109102813B (en) Voiceprint recognition method and device, electronic equipment and storage medium
CN111149153A (en) Information processing apparatus and utterance analysis method
KR20130112581A (en) Voice training service providing method using smart device
JP6821542B2 (en) Dialogue control devices, programs and methods that can carry out multiple types of dialogue in succession.
JP2020173415A (en) Teaching material presentation system and teaching material presentation method
JP2019175382A (en) Information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180201

R150 Certificate of patent or registration of utility model

Ref document number: 6285377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150