JP7296029B2 - Language teaching material generation system - Google Patents

Language teaching material generation system Download PDF

Info

Publication number
JP7296029B2
JP7296029B2 JP2019046016A JP2019046016A JP7296029B2 JP 7296029 B2 JP7296029 B2 JP 7296029B2 JP 2019046016 A JP2019046016 A JP 2019046016A JP 2019046016 A JP2019046016 A JP 2019046016A JP 7296029 B2 JP7296029 B2 JP 7296029B2
Authority
JP
Japan
Prior art keywords
goal
goals
storage unit
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019046016A
Other languages
Japanese (ja)
Other versions
JP2020148892A (en
Inventor
正樹 松下
美恵 寺澤
寛祥 伊藤
直人 奥出
千尋 佐藤
裕基 浦瀬
冴子 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Corp
Keio University
Original Assignee
NTT Data Corp
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp, Keio University filed Critical NTT Data Corp
Priority to JP2019046016A priority Critical patent/JP7296029B2/en
Publication of JP2020148892A publication Critical patent/JP2020148892A/en
Application granted granted Critical
Publication of JP7296029B2 publication Critical patent/JP7296029B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、語学教材を生成するためのシステムに関する。 The present invention relates to a system for generating language teaching materials.

従来、コンピュータを用いて語学教材を生成する方法が知られている。例えば、特許文献1には、学習者の操作情報や反応情報を取り込み、初期の学習ストーリーを別の学習ストーリーに変化させる電子学習システムが記載されている。この電子学習システムによれば、学習者オリジナルの学習ストーリーを仕立てることにより、学習効果を飛躍的に高めることができる。 Conventionally, a method of generating language teaching materials using a computer is known. For example, Patent Literature 1 describes an electronic learning system that incorporates learner's operation information and reaction information and changes an initial learning story to another learning story. According to this electronic learning system, the learning effect can be dramatically improved by tailoring the learner's original learning story.

特開2006-308815公報Japanese Patent Laid-Open No. 2006-308815

しかし、従来の方法で生成された語学教材は、学習者が実際に外国語を使用する状況を必ずしも反映したものとはなっていないため、語学教材を用いて学習しても学習の成果が出にくいという問題があった。 However, language learning materials generated by conventional methods do not necessarily reflect the situations in which learners actually use the foreign language. There was a problem of difficulty.

本発明はこのような事情に鑑みてなされたものであり、学習者が実際に外国語を使用する状況を反映させた語学教材を生成することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and an object of the present invention is to generate a language teaching material that reflects a situation in which a learner actually uses a foreign language.

上記課題を解決するため、本発明は、外国語を用いて行われた会話の音声を解析して、複数の発言と、当該複数の発言の各々がなされた時点を特定する音声解析部と、前記特定された複数の発言のうち、前記会話が行われた際に使用された資料に記載されている語句を含む複数の発言をゴールとして抽出するゴール抽出部と、前記抽出された複数のゴールの各々について、前記特定された複数の発言の中から、当該ゴールと当該ゴールに後続する他のゴールの間に位置する発言であって、当該他のゴールから所定の範囲内に位置する発言を当該ゴールの結果として抽出する結果抽出部と、前記抽出された複数のゴールの各々について、当該ゴールが発言された時点と、当該ゴールに後続する他のゴールが発言された時点の間の時間を当該ゴールの所要時間として特定する所要時間特定部と、前記抽出された複数のゴールの各々について、前記特定された複数の発言のうち、当該ゴールと当該ゴールに後続する他のゴールの間に位置する複数の発言の各々について、当該ゴール又は当該ゴールについて抽出された結果を構成する語句を含む度合いを示す関連度を判定し、判定した関連度が高い順に所定数以下の発言を当該ゴールの関連発言として抽出する関連発言抽出部と、前記抽出された複数のゴールの各々について、当該ゴールについて抽出された関連発言を構成する語句の難易度に基づいて、当該ゴールに適した前記外国語の習熟度を判定する習熟度判定部と、前記抽出された複数のゴールの中から、当該ゴールについて判定された習熟度と前記外国語の学習者の習熟度との間、および、当該ゴールについて判定された習熟度と前記外国語の学習支援者の習熟度との間で所定の条件を満たす複数のゴールを選択するゴール選択部と、前記選択された複数のゴールを、各グループを構成するゴールの所要時間の合計が所定の学習時間を超えないようにグループ分けするゴールグルーピング部と、グループ分けされた前記複数のグループの各々について、当該グループを構成する複数のゴールと当該複数のゴールの各々の所要時間を示すファイルを教材として生成する教材生成部とを備える語学教材生成システムを提供する。 In order to solve the above problems, the present invention provides a speech analysis unit that analyzes the speech of a conversation conducted using a foreign language and identifies a plurality of utterances and the time point at which each of the plurality of utterances was made; a goal extracting unit for extracting, as goals, a plurality of utterances including words and phrases described in materials used when the conversation was conducted, from the plurality of specified utterances; and the plurality of extracted goals. For each of the above, from among the specified plurality of statements, a statement positioned between the goal and another goal following the goal and within a predetermined range from the other goal A result extracting unit that extracts the result of the goal, and for each of the extracted goals, the time between the time when the goal is said and the time when another goal following the goal is said a required time specifying unit for specifying the time required for the goal; and for each of the plurality of extracted goals, a position between the goal and another goal following the goal among the plurality of specified utterances. For each of the multiple utterances, determine the degree of relevance that indicates the degree to which words and phrases constituting the goal or the results extracted for the goal are included, and utterances of a predetermined number or less in descending order of the determined degree of relevance are considered to be related to the goal. a related utterance extraction unit for extracting utterances; and for each of the plurality of goals extracted, proficiency in the foreign language suitable for the goal based on the degree of difficulty of words and phrases constituting the related utterances extracted for the goal. a proficiency level determination unit that determines the degree of proficiency, and between the proficiency level determined for the goal from among the extracted goals and the proficiency level of the foreign language learner, and the level determined for the goal a goal selection unit that selects a plurality of goals that satisfy a predetermined condition between the proficiency level of the foreign language learning supporter and the proficiency level of the foreign language learning supporter; a goal grouping unit that performs grouping so that the total required time does not exceed a predetermined learning time; and a teaching material generating unit that generates a file indicating the required time for language learning as a teaching material.

好ましい態様において、前記語学教材生成システムは、前記抽出された複数のゴールの各々について、当該ゴールが発言された時点と、当該ゴールに後続する他のゴールが発言された時点の間に行われた所定の身体動作を、前記会話の場面を記録した動画を解析して特定する身体動作特定部と、前記抽出された複数のゴールの各々について、当該ゴールについて特定された身体動作に予め対応付けられている、前記学習者の身体動作又は学習環境に関する注意点を示す補足事項を特定する補足事項特定部とをさらに備え、前記教材生成部は、グループ分けされた前記複数のグループの各々について、当該グループを構成する複数のゴールと当該複数のゴールの各々の所要時間と補足事項を示すファイルを教材として生成する。 In a preferred embodiment, the language learning material generation system performs, for each of the plurality of goals extracted, between the point in time when the goal is stated and the point in time when another goal subsequent to the goal is stated. a body movement identifying unit that identifies a predetermined body movement by analyzing a video recording of the scene of the conversation; and a supplementary item specifying unit that specifies supplementary items indicating points to note regarding the learner's body movement or learning environment, wherein the teaching material generation unit includes, for each of the plurality of grouped groups, A file indicating a plurality of goals that constitute the group, the required time for each of the plurality of goals, and supplementary items is generated as a teaching material.

本発明によれば、学習者が実際に外国語を使用する状況を反映させた語学教材を生成することができる。 According to the present invention, it is possible to generate a language learning material that reflects a situation in which a learner actually uses a foreign language.

ディスコースコミュニティ分析に係る機能構成の一例を示すブロック図Block diagram showing an example of functional configuration related to discourse community analysis 記譜データの一例を示す図Diagram showing an example of notation data 資料データの一例を示す図Diagram showing an example of material data ゴール/結果リストデータの一例を示す図Diagram showing an example of goal/result list data 関連発言リストデータの一例を示す図Diagram showing an example of related message list data 判定条件テーブルの一例を示す図A diagram showing an example of a judgment condition table 身体動作リストデータの一例を示す図A diagram showing an example of body motion list data 単語リストデータの一例を示す図Diagram showing an example of word list data 英会話教材の生成に係る機能構成の一例を示すブロック図Block diagram showing an example of a functional configuration related to the generation of English conversation teaching materials 難易度判定テーブルデータの一例を示す図A diagram showing an example of difficulty determination table data 習熟度判定テーブルデータの一例を示す図Diagram showing an example of proficiency level determination table data ゴールレベルデータの一例を示す図Diagram showing an example of goal level data レッスン情報テーブルデータの一例を示す図Diagram showing an example of lesson information table data 教材パターンデータの一例を示す図A diagram showing an example of teaching material pattern data 補足事項判定テーブルデータの一例を示す図Diagram showing an example of supplementary item determination table data 教材ファイルの一例を示す図A diagram showing an example of a teaching material file ディスコースコミュニティ分析処理の一例を示すフロー図Flow diagram showing an example of discourse community analysis processing ゴール/結果リストデータ生成処理の一例を示すフロー図Flow diagram showing an example of goal/result list data generation processing 関連発言抽出処理の一例を示すフロー図Flow diagram showing an example of related utterance extraction processing 英会話教材生成処理の一例を示すフロー図Flow diagram showing an example of English conversation teaching material generation processing 習熟度判定処理の一例を示すフロー図Flow diagram showing an example of proficiency level determination processing 教材パターン特定処理の一例を示すフロー図Flow chart showing an example of teaching material pattern identification processing 教材ファイル生成処理の一例を示すフロー図Flow diagram showing an example of teaching material file generation processing

1.実施形態
本発明の一実施形態に係る語学教材生成システム1について、図面を参照して説明する。以下に説明する語学教材生成システム1は、特に英会話教材を生成するためのシステムであり、1又は複数のサーバにより構成される。
1-1.構成
語学教材生成システム1を用いて英会話教材を生成するにあたり、学習対象である英会話が実際に行われている環境について民族誌調査を行う。例えば、学習者が、特定の会社の業務で行われている英会話を習得したい場合には、その業務に実際に従事する人を対象者として民族誌調査を行う。この民族誌調査では、その業務に実際に従事する人の音声と動画を記録する。語学教材生成システム1は、この記録された音声と動画に基づいて、ディスコースコミュニティ分析を行う。ここでディスコースとは二人の話者の言葉のやりとりのことで、言語学では談話と訳される。このやりとりを複数の共通する目的をもつ話者(これをコミュニティと呼ぶ)からなる談話の集まりとみたのがディスコースコミュニティである。したがって、ディスコースコミュニティ分析とは複数の特定の目的をもつ話者の間で取り交わされる談話(ディスコース)を分析し、どのようにディスコースを通してコミュニティが目的を達成していくかのプロセスを分析するものである。具体的には、「ゴールと結果」、「ゴール達成に寄与した発言内容」、「ゴール達成に寄与した身体動作及び環境要素」及び「リソース」を抽出することで、その環境の文化的特徴を明らかにする。そして、ディスコースコミュニティ分析の結果に基づいて英会話教材を生成する。生成された英会話教材は、主に英会話学習用の施設で学習者のレッスンに使用される。
以下、語学教材生成システム1により実行されるディスコースコミュニティ分析と英会話教材の生成について説明する。
1. Embodiment A language learning material generation system 1 according to an embodiment of the present invention will be described with reference to the drawings. The language teaching material generation system 1 described below is a system for particularly generating English conversation teaching materials, and is composed of one or a plurality of servers.
1-1. Configuration When creating English conversation teaching materials using the language learning teaching material generation system 1, an ethnographic survey is conducted on the environment in which English conversation, which is the subject of learning, is actually conducted. For example, if a learner wants to learn English conversation in the business of a particular company, he or she conducts an ethnographic survey on the people who actually engage in the business. This ethnographic study records the audio and video of people who actually do the work. The language teaching material generation system 1 performs discourse community analysis based on the recorded voice and video. Here, discourse is the exchange of words between two speakers, and in linguistics it is translated as discourse. A discourse community sees this exchange as a collection of discourses made up of speakers with a common purpose (this is called a community). Therefore, discourse community analysis analyzes the discourse exchanged between speakers with multiple specific purposes, and the process of how the community achieves the purpose through discourse. Analyze. Specifically, by extracting "goals and results,""contents of remarks that contributed to goal achievement,""body movements and environmental elements that contributed to goal achievement," and "resources," the cultural characteristics of the environment can be identified. make clear. Then, English conversation teaching materials are generated based on the results of the discourse community analysis. The generated English conversation teaching materials are mainly used for lessons for learners at facilities for learning English conversation.
The discourse community analysis and the generation of English conversation teaching materials executed by the language teaching material generation system 1 will be described below.

図1は、ディスコースコミュニティ分析に係る機能構成の一例を示すブロック図である。同図に示す機能のうち、音声記憶部2、記譜記憶部4、資料記憶部5、ゴール/結果リスト記憶部7、関連発言リスト記憶部9、動画記憶部10、身体動作リスト記憶部12及び単語リスト記憶部14は、メモリにより実現される。一方、音声解析部3、ゴール/結果リスト生成部6、関連発言リスト生成部8、身体動作リスト生成部11及び単語リスト生成部13は、メモリに記憶されるプログラムをプロセッサが実行することにより実現される。なお、このプログラムは、インターネット等のネットワークや非一時的な記録媒体を介して頒布可能なプログラムである。以下、各機能について説明する。 FIG. 1 is a block diagram showing an example of a functional configuration related to discourse community analysis. Among the functions shown in the figure, a voice storage unit 2, a notation storage unit 4, a material storage unit 5, a goal/result list storage unit 7, a related utterance list storage unit 9, a video storage unit 10, and a body movement list storage unit 12 And the word list storage unit 14 is implemented by a memory. On the other hand, the speech analysis unit 3, the goal/result list generation unit 6, the related statement list generation unit 8, the body movement list generation unit 11, and the word list generation unit 13 are realized by the processor executing programs stored in the memory. be done. This program is a program that can be distributed via a network such as the Internet or a non-temporary recording medium. Each function will be described below.

音声記憶部2は、学習対象となる英会話であって、実際に行われた英会話の音声データを記憶する。本実施形態の以下の説明では、学習対象の英会話として、会議中の英会話を想定する。この音声記憶部2に記憶される音声データは、ピンマイクを用いて会議の参加者ごとに生成され、参加者の識別情報と対応付けて記憶される。または、会議の参加者全員の音声を1つのマイクで収音し、声紋分析を用いて参加者ごとの音声データを生成する。 The voice storage unit 2 stores voice data of actually conducted English conversations, which are English conversations to be learned. In the following description of this embodiment, English conversation during a meeting is assumed as the English conversation to be learned. The voice data stored in the voice storage unit 2 is generated for each participant in the conference using a pin microphone and stored in association with the participant's identification information. Alternatively, the voices of all conference participants are collected with one microphone, and voiceprint analysis is used to generate voice data for each participant.

音声解析部3は、音声記憶部2に記憶される音声データを解析して、会議中の発言内容を特定し、特定した発言内容とその発言者とその発言の時点を対応付けることで、記譜データを生成する。図2は、この記譜データの一例を示す図である。同図に示す記譜データは、例えば、会議の開始後1分2秒経過後の時点でA氏により「there should be some pros and cons about the change of the logo design」という発言がなされたことを示している。音声解析部3により生成された記譜データは、記譜記憶部4に記憶される。なお、記譜記憶部4に記憶された記譜データは、音声認識の精度が低い場合には、人間の手により修正されてもよい。 The speech analysis unit 3 analyzes the speech data stored in the speech storage unit 2, specifies the content of the speech during the conference, and associates the specified content of the speech with the speaker and the time of the speech, thereby notating the score. Generate data. FIG. 2 is a diagram showing an example of this notation data. The musical notation data shown in the figure represents, for example, Mr. A's remark "there should be some pros and cons about the change of the logo design" at a point in time one minute and two seconds after the start of the meeting. showing. The notation data generated by the voice analysis unit 3 is stored in the notation storage unit 4 . Note that the musical notation data stored in the musical notation storage unit 4 may be manually corrected when the accuracy of voice recognition is low.

資料記憶部5は、上記の会議で使用された資料のデータを記憶する。本実施形態の以下の説明では、上記の会議で使用された資料として、アジェンダ(言い換えると、議事の進行順序)を示す資料を想定する。図3は、この資料データの一例を示す図である。同図に示す資料データは、例えば、会議(1)の最初の議事がSelf-introductionであり、その所要時間が5分の予定であったことを示している。 The material storage unit 5 stores data of materials used in the conference. In the following description of the present embodiment, it is assumed that the material used in the above conference is a material showing an agenda (in other words, the order of progress of proceedings). FIG. 3 is a diagram showing an example of this material data. The material data shown in the figure indicates, for example, that the first agenda item of the meeting (1) is self-introduction, and the required time is scheduled to be 5 minutes.

ゴール/結果リスト生成部6は、記譜記憶部4に記憶される記譜データと資料記憶部5に記憶される資料データに基づいて、ゴール、結果及び所要時間を特定して対応付けることで、ゴール/結果リストデータを生成する。ここで、ゴールとは、会議中に行われた議論の目的であり、例えば、「ロゴのデザインを決定したい」といった目的である。結果とは、ゴールについて議論した結果(言い換えると、結論)であり、例えば、「デザインCに決定」といった結果である。所要時間とは、ゴールについて議論するために費やされた時間である。 The goal/result list generation unit 6 identifies and associates goals, results, and required times based on the notation data stored in the notation storage unit 4 and the material data stored in the material storage unit 5, Generate goal/result list data. Here, the goal is the purpose of the discussion held during the meeting, for example, "I want to decide on the design of the logo." The result is the result (in other words, the conclusion) of discussing the goal, for example, the result of "decided on design C". Duration is the time spent discussing the goal.

これらの3つの要素のうち、ゴールを特定するにあたりゴール/結果リスト生成部6は、記譜データにより示される発言のうち、資料データにより示される議事を構成する語句を含む発言を抽出する。例えば、資料データとして図3に示す資料データを想定すると、「logo」や「recruitment」といった語を含む発言を抽出する。その際、be動詞と冠詞は無視してよい。また、ゴール/結果リスト生成部6は、記譜データにより示される発言のうち、「please」や「may I ask you」といった、依頼を示す所定の語句を含む発言も抽出する。 In specifying goals among these three elements, the goal/result list generator 6 extracts, from among the utterances indicated by the notation data, utterances containing words and phrases constituting the proceedings indicated by the material data. For example, assuming the material data shown in FIG. 3 as the material data, utterances containing words such as "logo" and "recruitment" are extracted. In that case, you can ignore the verb to be and the article. In addition, the goal/result list generator 6 also extracts utterances including predetermined words and phrases indicating requests, such as "please" and "may I ask you," among utterances indicated by musical notation data.

次に、抽出したゴールの結果を特定するにあたりゴール/結果リスト生成部6は、記譜データにより示される複数の発言のうち、結果の特定対象となっているゴールが、後続する次のゴールに切り替わる直前の発言を抽出する。より具体的には、結果の特定対象となっているゴールと、これに後続する次のゴールの間に位置する発言であって、当該次のゴールから所定の範囲内に位置する発言を抽出する。ここで、当該次のゴールから所定の範囲内に位置する発言とは、具体的には、当該次のゴールの直前の発言である。なお、ゴール/結果リスト生成部6により抽出された発言が不適当である場合には、人間の手により修正されてもよい。 Next, in specifying the results of the extracted goals, the goal/result list generation unit 6 selects the goal whose result is to be specified among the plurality of utterances indicated by the notation data as the following goal. Extract the utterance immediately before switching. More specifically, the utterances positioned between the goal whose result is to be specified and the next goal following it, and within a predetermined range from the next goal are extracted. . Here, the statement located within a predetermined range from the next goal is specifically the statement immediately before the next goal. If the statement extracted by the goal/result list generator 6 is inappropriate, it may be corrected manually.

次に、抽出したゴールの所要時間を特定するにあたりゴール/結果リスト生成部6は、所要時間の特定対象となっているゴールが、後続する次のゴールに切り替わるまでの時間を特定する。より具体的には、所要時間の特定対象となっているゴールが発言された時点と、後続する次のゴールが発言された時点の間の時間を特定する。例えば、所要時間の特定対象となっているゴールが、会議開始から5分経過後に発言され、後続する次のゴールが、会議開始から10分経過後に発言された場合には、所要時間として5分が特定される。 Next, in specifying the required time of the extracted goal, the goal/result list generator 6 specifies the time until the goal whose required time is to be specified switches to the next subsequent goal. More specifically, the time between when the goal for which the required time is to be specified is stated and when the next subsequent goal is stated is specified. For example, if the goal for which the required time is to be specified is stated 5 minutes after the start of the meeting, and the next goal is stated 10 minutes after the start of the meeting, the required time will be 5 minutes. is identified.

図4は、ゴール/結果リスト生成部6により生成されるゴール/結果リストデータの一例を示す図である。同図に示すゴール/結果リストデータは、例えば、会議(1)の最初のゴールが「Change the log design」であり、その結果が「Design C fixed」であり、その所要時間が10分であったことを示している。ゴール/結果リスト生成部6により生成されたゴール/結果リストデータは、ゴール/結果リスト記憶部7に記憶される。なお、ゴール/結果リスト記憶部7に記憶されたゴール/結果リストデータは、データの抽出精度が低い場合には、人間の手により修正されてもよい。 FIG. 4 is a diagram showing an example of goal/result list data generated by the goal/result list generation unit 6. As shown in FIG. The goal/result list data shown in FIG. indicates that The goal/result list data generated by the goal/result list generation unit 6 is stored in the goal/result list storage unit 7 . The goal/result list data stored in the goal/result list storage unit 7 may be corrected manually if the accuracy of data extraction is low.

次に、関連発言リスト生成部8は、ゴール/結果リスト記憶部7に記憶されるゴール/結果リストデータにより示される各ゴールの達成に寄与した発言(以下、「関連発言」という。)を、記譜記憶部4に記憶される記譜データにより示される発言の中から抽出し、抽出した関連発言のリストデータを生成する。各ゴールについて関連発言を抽出するにあたっては、まず、処理対象のゴールと、これに後続する次のゴールの間に位置する各発言について、処理対象のゴールとの関連度を示すUsage度を算出する。このUsage度は、発言が、処理対象のゴール又は当該ゴールの結果を構成する語句を含む度合いを示す値である。例えば、処理対象のゴールとその結果がそれぞれ「Change the logo design」、「Design C fixed」であり、「there should be some pros and cons about the change of the logo design」という14個の単語からなる発言についてUsage度を算出する場合を想定すると、この発言には、ゴール又は結果に含まれる「change」、「logo」、「design」という3つの単語が含まれるため、Usage度は「3/14」となる。なお、Usage度を算出するにあたり、be動詞と冠詞は無視してよい。 Next, the related statement list generation unit 8 generates statements that contributed to the achievement of each goal indicated by the goal/result list data stored in the goal/result list storage unit 7 (hereinafter referred to as "related statements"). The utterances indicated by the musical notation data stored in the musical notation storage unit 4 are extracted, and list data of the extracted related utterances is generated. When extracting related statements for each goal, first, for each statement located between the goal to be processed and the next goal that follows it, the degree of usage indicating the degree of relevance to the goal to be processed is calculated. . This usage degree is a value that indicates the degree to which an utterance includes words and phrases forming the goal to be processed or the result of the goal. For example, the goal to be processed and its result are ``Change the logo design'' and ``Design C fixed'', respectively, and a statement consisting of 14 words ``there should be some pros and cons about the change of the logo design''. Assuming the case of calculating the usage degree for, this statement includes three words "change", "logo", and "design" included in the goal or result, so the usage degree is "3/14" becomes. Note that the verb to be and the article may be ignored when calculating the Usage degree.

各発言についてUsage度を算出すると、次に、Usage度が高い順に所定数の発言を関連発言として抽出する。ここで抽出される関連発言の数は、処理対象のゴールと、これに後続する次のゴールの間に位置する発言の総数の30%以下とする。なお、この「30%」という数値はあくまで一例であり、本システムの利用者が求める精度に応じて適宜変更してよい。 Once the Usage degree is calculated for each statement, a predetermined number of statements are extracted as related statements in descending order of the Usage degree. The number of related utterances extracted here shall be 30% or less of the total number of utterances located between the goal to be processed and the next goal following it. Note that this numerical value of "30%" is merely an example, and may be changed as appropriate according to the accuracy desired by the user of this system.

図5は、関連発言リスト生成部8により生成される関連発言リストデータの一例を示す図である。同図に示す関連発言リストデータは、例えば、会議(1)の最初のゴールが「Change the logo design」であり、その結果が「Design C fixed」であり、その関連発言の1つが「there should be some pros and cons about the change of the logo design」であることを示している。関連発言リスト生成部8により生成された関連発言リストデータは、関連発言リスト記憶部9に記憶される。 FIG. 5 is a diagram showing an example of related statement list data generated by the related statement list generation unit 8. As shown in FIG. The related remarks list data shown in FIG. be some pros and cons about the change of the logo design”. The related statement list data generated by the related statement list generation section 8 is stored in the related statement list storage section 9 .

次に、動画記憶部10は、上記の会議の場面を記録した動画データを記憶する。動画記憶部10に記憶される動画データは、会議の参加者全員を撮影可能なように設置されたカメラにより生成される。 Next, the moving image storage unit 10 stores moving image data in which scenes of the conference are recorded. The moving image data stored in the moving image storage unit 10 is generated by a camera installed so as to photograph all the participants of the conference.

身体動作リスト生成部11は、ゴール/結果リスト記憶部7に記憶されるゴール/結果リストデータにより示される各ゴールの達成に寄与した身体動作(以下、単に「身体動作」という。)とその動作者を、動画記憶部10に記憶される動画データを解析して特定し、特定した身体動作のリストデータを生成する。各ゴールについて身体動作を特定するにあたっては、処理対象のゴールが発言された時点と、これに後続する次のゴールが発言された時点の間に行われた所定の身体動作を、動画データを解析して特定する。ここで所定の身体動作とは、所定の判定条件を満たす身体動作である。図6は、この所定の判定条件を定める判定条件テーブルの一例を示す図である。同図に示す判定条件テーブルは、例えば、「メモを取る」という身体動作に対して、「ペンを持つ指をメモ用紙に触れる位置で動かした」という判定条件を定めている。この判定条件テーブルに定める身体動作を特定するにあたっては、機械学習(より好ましくはディープラーニング)を用いる。具体的には例えば、Language model-based approach、Sequence learning-based approach又はLSTM(Long short-term memory)-Eを用いてもよい(https://www.microsoft.com/en-us/research/wp-content/uploads/2017/10/Tao-Mei-Intelligent-Video-Analysis-ACMMM-2017-Pub.pdf参照)。または、CNN(Convolutional neural network)とRNN(recurrent neural network)を組み合わせたLRCN(Long-term Recurrent Convolutional Networks)と呼ばれるモデルを使用したり、オプティカルフローを検出することで身体動作を特定したりしてもよい(https://www.slideshare.net/YoshitakaUshiku/ss-123687543参考)。身体動作の動作者を特定するにあたっては、身体動作リスト生成部11は顔認識技術を用いる。 The body motion list generation unit 11 generates body motions (hereinafter simply referred to as “body motions”) that contribute to the achievement of each goal indicated by the goal/result list data stored in the goal/result list storage unit 7 and the motions thereof. A person is identified by analyzing the moving image data stored in the moving image storage unit 10, and list data of the identified body movements is generated. In order to identify the body movements for each goal, the video data is analyzed for the prescribed body movements between the time when the goal to be processed is said and the time when the next goal following this is said. to specify. Here, the predetermined body motion is a body motion that satisfies a predetermined determination condition. FIG. 6 is a diagram showing an example of a determination condition table that defines this predetermined determination condition. For example, the determination condition table shown in FIG. 10 defines a determination condition that "the finger holding the pen was moved to the position where it touches the memo paper" for the body action of "taking notes". Machine learning (more preferably deep learning) is used to specify the body motion defined in this determination condition table. Specifically, for example, Language model-based approach, Sequence learning-based approach or LSTM (Long short-term memory)-E may be used (https://www.microsoft.com/en-us/research/ wp-content/uploads/2017/10/Tao-Mei-Intelligent-Video-Analysis-ACMMM-2017-Pub.pdf). Alternatively, use a model called LRCN (Long-term Recurrent Convolutional Networks), which combines CNN (Convolutional neural network) and RNN (recurrent neural network), or identify body movements by detecting optical flow. (See https://www.slideshare.net/YoshitakaUshiku/ss-123687543). The body motion list generator 11 uses face recognition technology to identify the performer of the body motion.

図7は、身体動作リスト生成部11により生成される身体動作リストデータの一例を示す図である。同図に示す身体動作リストデータは、例えば、会議(1)の最初のゴールが「Change the logo design」であり、その結果が「Design C fixed」であり、その身体動作の1つが「資料を確認して読む」であることを示している。身体動作リスト生成部11により生成された身体動作リストデータは、身体動作リスト記憶部12に記憶される。 FIG. 7 is a diagram showing an example of body action list data generated by the body action list generation unit 11. As shown in FIG. In the body motion list data shown in the same figure, for example, the first goal of meeting (1) is "Change the logo design", the result is "Design C fixed", and one of the body motions is "Prepare materials". "Check and read" is indicated. The body action list data generated by the body action list generation section 11 is stored in the body action list storage section 12 .

次に、単語リスト生成部13は、記譜記憶部4に記憶される記譜データにより示される各単語を、図示せぬ辞書データベースを用いて語源及び品詞で分類することで、単語リストデータを生成する。図8は、この単語リスト生成部13により生成される単語リストデータの一例を示す図である。単語リスト生成部13により生成された単語リストデータは、単語リスト記憶部14に記憶される。なお、一般の辞書に載っていない専門用語と、一般の辞書に載っている単語であっても特殊な意味で使用されている単語(Contextual)については、人間の手で分類してよい。 Next, the word list generation unit 13 classifies each word indicated by the notation data stored in the notation storage unit 4 by word origin and part of speech using a dictionary database (not shown), thereby generating word list data. Generate. FIG. 8 is a diagram showing an example of word list data generated by the word list generating section 13. As shown in FIG. The word list data generated by the word list generation unit 13 is stored in the word list storage unit 14. FIG. Technical terms that are not listed in general dictionaries and words that are listed in general dictionaries but are used with special meanings (contextual) may be classified manually.

以上説明した各機能により、英会話教材の生成に使用されるゴール/結果リストデータ、関連発言リストデータ、身体動作リストデータ及び単語リストデータが生成される。これらのデータセットは、学習対象とされる英会話が行われる複数の会議の各々について生成される。 The functions described above generate goal/result list data, related statement list data, body action list data, and word list data used to generate English conversation teaching materials. These data sets are generated for each of a plurality of meetings in which English conversation to be learned is held.

次に、英会話教材の生成について説明する。図9は、英会話教材の生成に係る機能構成の一例を示すブロック図である。同図に示す機能のうち、関連発言リスト群記憶部15、難易度判定テーブル記憶部16、習熟度判定テーブル記憶部17、ゴールレベル記憶部19、ゴール/結果リスト群記憶部20、レッスン情報テーブル記憶部21、教材パターン記憶部23、身体動作リスト群記憶部24、補足事項判定テーブル記憶部25、単語リスト群記憶部26及び教材記憶部28は、メモリにより実現される。一方、ゴールレベル判定部18、教材パターン生成部22及び教材生成部27は、メモリに記憶されるプログラムをプロセッサが実行することにより実現される。なお、このプログラムは、インターネット等のネットワークや非一時的な記録媒体を介して頒布可能なプログラムである。以下、各機能について説明する。 Next, generation of English conversation teaching materials will be described. FIG. 9 is a block diagram showing an example of a functional configuration relating to generation of English conversation teaching materials. Among the functions shown in the figure, related statement list group storage unit 15, difficulty level determination table storage unit 16, proficiency level determination table storage unit 17, goal level storage unit 19, goal/result list group storage unit 20, lesson information table The storage unit 21, the teaching material pattern storage unit 23, the body action list group storage unit 24, the supplementary item determination table storage unit 25, the word list group storage unit 26, and the teaching material storage unit 28 are implemented by memories. On the other hand, the goal level determination unit 18, the teaching material pattern generation unit 22, and the teaching material generation unit 27 are implemented by a processor executing a program stored in the memory. This program is a program that can be distributed via a network such as the Internet or a non-temporary recording medium. Each function will be described below.

関連発言リスト群記憶部15は、複数の会議の各々について生成された関連発言リストデータを記憶する。 The related comment list group storage unit 15 stores related comment list data generated for each of a plurality of conferences.

難易度判定テーブル記憶部16は、単語とその難易度を対応付けるテーブルであって、単語の難易度を判定するために参照されるテーブルのデータを記憶する。図10は、この難易度判定テーブル記憶部16に記憶される難易度判定テーブルデータの一例を示す図である。 The difficulty level determination table storage unit 16 is a table that associates words with their difficulty levels, and stores data of the table that is referenced to determine the difficulty levels of words. FIG. 10 is a diagram showing an example of the difficulty determination table data stored in the difficulty determination table storage unit 16. As shown in FIG.

習熟度判定テーブル記憶部17は、単語の難易度と英会話の習熟度を対応付けるテーブルであって、単語の難易度に基づいて英会話の習熟度を判定するために参照されるテーブルデータを記憶する。ここで、このテーブルに格納される英会話の習熟度としては、CEFR(Common European framework of reference for languages)のレベルを用いる。図11は、この習熟度判定テーブル記憶部17に記憶される習熟度判定テーブルデータの一例を示す図である。 The proficiency level determination table storage unit 17 is a table that associates the difficulty level of words with the proficiency level of English conversation, and stores table data that is referenced to determine the proficiency level of English conversation based on the difficulty level of words. Here, the level of CEFR (Common European framework of reference for languages) is used as the proficiency level of English conversation stored in this table. FIG. 11 is a diagram showing an example of proficiency level determination table data stored in the proficiency level determination table storage unit 17. As shown in FIG.

ゴールレベル判定部18は、関連発言リスト群記憶部15に記憶される関連発言リストデータ群により示される各ゴールに適した英会話の習熟度を判定することで、ゴールレベルデータを生成する。各ゴールについて習熟度を判定するにあたっては、処理対象のゴールについて抽出された関連発言に基づいて習熟度を判定する。具体的には、処理対象のゴールについて抽出された関連発言を構成する各単語の難易度を、難易度判定テーブル記憶部16に記憶される難易度判定テーブルを参照して判定し、その判定した難易度に対応する習熟度を、習熟度判定テーブル記憶部17に記憶される習熟度判定テーブルを参照して判定する。そして、判定された習熟度の中で最も高い習熟度を、処理対象のゴールの習熟度として特定する。なお、処理対象のゴールについて抽出された関連発言を構成する各単語の難易度を、難易度判定テーブル記憶部16に記憶される難易度判定テーブルを参照して判定し、その判定した難易度に対応する習熟度を、当該関連発言の習熟度として記憶し、これを関連発言毎に繰り返すことで、記憶された複数の関連発言の習熟度の平均値または最頻値を、処理対象のゴールの習熟度として特定してもよい。 The goal level determination unit 18 generates goal level data by determining the proficiency level of English conversation suitable for each goal indicated by the related statement list data group stored in the related statement list group storage unit 15 . In determining the proficiency level for each goal, the proficiency level is determined based on the related utterances extracted for the goal to be processed. Specifically, the degree of difficulty of each word constituting the related statement extracted for the goal to be processed is determined by referring to the difficulty determination table stored in the difficulty determination table storage unit 16, and the determination is made. The proficiency level corresponding to the difficulty level is determined by referring to the proficiency level determination table stored in the proficiency level determination table storage unit 17 . Then, the highest proficiency level among the determined proficiency levels is specified as the proficiency level of the goal to be processed. The difficulty level of each word constituting the related statement extracted for the goal to be processed is determined by referring to the difficulty level determination table stored in the difficulty level determination table storage unit 16. The corresponding proficiency level is stored as the proficiency level of the relevant related utterance, and by repeating this for each related utterance, the average value or the mode of the stored proficiency levels of a plurality of related utterances is used as the goal to be processed. It may be specified as proficiency.

図12は、ゴールレベル判定部18により生成されるゴールレベルデータの一例を示す図である。同図に示すゴールレベルデータは、例えば、会議(1)のゴール(1)に適した英会話の習熟度がB1であることを示している。ゴールレベル判定部18により生成されたゴールレベルデータは、ゴールレベル記憶部19に記憶される。 FIG. 12 is a diagram showing an example of goal level data generated by the goal level determination unit 18. As shown in FIG. The goal level data shown in the figure indicates, for example, that the proficiency level of English conversation suitable for the goal (1) of the meeting (1) is B1. The goal level data generated by the goal level determination section 18 is stored in the goal level storage section 19 .

次に、ゴール/結果リスト群記憶部20は、複数の会議の各々について生成されたゴール/結果リストデータを記憶する。 Next, the goal/result list group storage unit 20 stores the goal/result list data generated for each of the multiple meetings.

レッスン情報テーブル記憶部21は、英会話のレッスンの各クラスについて、参加者である学習者と学習支援者の英会話の習熟度と、そのクラスの教材パターンを対応付けるテーブルのデータを記憶する。ここで、このテーブルに格納される英会話の習熟度としては、CEFRのレベルを用いる。学習者と学習支援者のCEFRのレベルは、予めテストを行って特定しておく。図13は、このレッスン情報テーブル記憶部21に記憶されるレッスン情報テーブルデータの一例を示す図である。同図に示すレッスン情報テーブルデータは、例えば、クラスG1に参加する学習者、第1学習支援者、第2学習支援者の習熟度がそれぞれA2、B2、C1であり、そのクラスの教材パターンが「P1」であることを示している。 The lesson information table storage unit 21 stores, for each class of an English conversation lesson, table data that associates the English conversation proficiency levels of learners and learning supporters who are participants with the teaching material patterns of the class. Here, the CEFR level is used as the proficiency level of English conversation stored in this table. The CEFR levels of learners and learning supporters are determined in advance by testing. FIG. 13 shows an example of lesson information table data stored in the lesson information table storage unit 21. As shown in FIG. For example, the lesson information table data shown in FIG. It indicates that it is "P1".

教材パターン生成部22は、レッスン情報テーブル記憶部21に記憶されるレッスン情報テーブルデータにより示される各クラスに適した教材パターンのデータを生成する。各クラスについて教材パターンを生成するにあたっては、まず、処理対象のクラスに適したゴールを選択する。具体的には、ゴールレベル記憶部19に記憶されるゴールレベルデータとレッスン情報テーブルデータを参照して、処理対象のクラスに参加する学習者と学習支援者の習熟度との間で所定の条件を満たす習熟度を有するゴールを選択する。ここで所定の条件とは、ゴールの習熟度が学習者の習熟度と同等か1段階高いという第1条件と、ゴールの習熟度がいずれの学習支援者の習熟度も超えないという第2条件の両条件である。例えば、処理対象のクラスとして図13に示すクラスG1を想定し、ゴールレベルデータとして図12に示すゴールレベルデータを想定すると、上記の所定の条件に従った場合、会議(1)のゴール(2)と、会議(2)のゴール(1)及び(5)が選択されることになる。 The teaching material pattern generation unit 22 generates teaching material pattern data suitable for each class indicated by the lesson information table data stored in the lesson information table storage unit 21 . In generating teaching material patterns for each class, first, a goal suitable for the class to be processed is selected. Specifically, with reference to the goal level data and the lesson information table data stored in the goal level storage unit 19, a predetermined condition is established between the learner participating in the class to be processed and the proficiency level of the learning supporter. Select a goal that has a proficiency that satisfies Here, the predetermined conditions are the first condition that the proficiency level of the goal is equal to or one step higher than the proficiency level of the learner, and the second condition that the proficiency level of the goal does not exceed the proficiency level of any learning supporter. are both conditions. For example, assuming the class G1 shown in FIG. 13 as the class to be processed, and the goal level data shown in FIG. 12 as the goal level data, the goal (2 ) and goals (1) and (5) of meeting (2) will be selected.

処理対象のクラスに適したゴールを選択すると、次に、選択したゴールをレッスン単位にグルーピングする。具体的には、ゴールレベル記憶部19に記憶されるゴール/結果リストデータ群(特に所要時間)を参照して、選択したゴールを、各グループを構成するゴールの所要時間の合計が1回のレッスン時間(例えば50分)を超えないようにグルーピングし、各グループに教材IDを付与することで教材パターンデータを生成する。図14は、この教材パターンデータの一例を示す図である。同図に示す教材パターンデータは、例えば、教材パターンP1は教材A1-1等により構成され、教材A1-1は、会議(1)のゴール(2)、(3)、(6)及び(8)により構成されることを示している。これらのゴール(2)、(3)、(6)及び(8)の所要時間は、それぞれ5分、10分、20分、10分であり、その合計所要時間である45分は、50分のレッスン時間に収まっている。教材パターン生成部22により生成された教材パターンデータは、教材パターン記憶部23に記憶され、かつ、レッスン情報テーブルデータにおいて処理対象のクラスと対応付けられる。 After selecting goals suitable for the class to be processed, the selected goals are grouped into lessons. Specifically, the goal/result list data group (particularly required time) stored in the goal level storage unit 19 is referred to, and the selected goal is set to the goal whose total required time of each group is one time. Teaching material pattern data is generated by grouping so as not to exceed the lesson time (for example, 50 minutes) and assigning a teaching material ID to each group. FIG. 14 is a diagram showing an example of this teaching material pattern data. In the teaching material pattern data shown in the figure, for example, the teaching material pattern P1 is composed of teaching materials A1-1, etc., and the teaching materials A1-1 correspond to the goals (2), (3), (6) and (8) of the meeting (1). ). The required times for these goals (2), (3), (6) and (8) are 5 minutes, 10 minutes, 20 minutes and 10 minutes respectively, and the total required time of 45 minutes is 50 minutes. It fits in the lesson time of The teaching material pattern data generated by the teaching material pattern generation unit 22 is stored in the teaching material pattern storage unit 23, and is associated with the class to be processed in the lesson information table data.

次に、身体動作リスト群記憶部24は、複数の会議の各々について生成された身体動作リストデータを記憶する。 Next, the body action list group storage unit 24 stores the body action list data generated for each of the multiple meetings.

補足事項判定テーブル記憶部25は、身体動作と、学習者の身体動作又は学習環境に関する注意点を示す補足事項とを対応付けるテーブルであって、身体動作に基づいて補足事項を判定するために参照されるテーブルのデータを記憶する。図15は、この補足事項判定テーブル記憶部25に記憶される補足事項判定テーブルデータの一例を示す図である。 The supplementary item determination table storage unit 25 is a table that associates body motions with supplementary items that indicate points to note regarding the learner's body motions or the learning environment, and is referred to in order to determine supplementary items based on the body motions. store data for tables that FIG. 15 is a diagram showing an example of supplementary matter judgment table data stored in the supplementary matter judgment table storage unit 25. As shown in FIG.

単語リスト群記憶部26は、複数の会議の各々について生成された単語リストデータを記憶する。 The word list group storage unit 26 stores word list data generated for each of a plurality of meetings.

教材生成部27は、教材パターン記憶部23に記憶される教材パターンデータにより示される各教材のファイルを生成する。各教材ファイルを生成するにあたっては、まず、ゴール/結果リスト群記憶部20に記憶されるゴール/結果リストデータ群を参照して、処理対象の教材を構成する各ゴールとその所要時間を特定する。ゴールと所要時間を特定すると、次に、処理対象の教材を構成する各ゴールについて、身体動作リスト群記憶部24に記憶される身体動作リストデータを参照して身体動作を特定し、特定した身体動作に対応する補足事項を、補足事項判定テーブル記憶部25に記憶される補足事項判定テーブルデータを参照して特定する。補足事項を特定すると、次に、処理対象の教材を構成する各ゴールについて、単語リスト群記憶部26に記憶される単語リストデータを参照して、専門用語とContextualを特定する。専門用語とContextualを特定すると、最後に、特定したゴール、所要時間、補足事項、専門用語及びContextualが記述された教材ファイルを生成する。図16は、この教材ファイルの一例を示す図である。教材生成部27により生成された教材ファイルは、教材記憶部28に記憶される。 The educational material generation unit 27 generates a file of each educational material indicated by the educational material pattern data stored in the educational material pattern storage unit 23 . When generating each educational material file, first, the goal/result list data group stored in the goal/result list group storage unit 20 is referred to, and each goal constituting the educational material to be processed and the time required for the goal are specified. . Once the goal and required time are specified, next, for each goal constituting the teaching material to be processed, the body motion list data stored in the body motion list group storage unit 24 is referred to specify the body motion, and the specified body The supplementary item corresponding to the action is specified by referring to the supplementary item determination table data stored in the supplementary item determination table storage unit 25 . Once the supplementary items have been specified, next, the word list data stored in the word list group storage unit 26 is referred to for each goal that constitutes the teaching material to be processed, and technical terms and contextual are specified. Once technical terms and contextuals are specified, finally, a teaching material file is generated in which the specified goals, required time, supplementary items, technical terms and contextuals are described. FIG. 16 is a diagram showing an example of this educational material file. The teaching material file generated by the teaching material generating unit 27 is stored in the teaching material storage unit 28 .

以上説明した各機能により、英会話のレッスンのカリキュラムを示す教材パターンデータと、英会話のレッスンで使用される各教材ファイルが生成される。生成されたこれらのデータを用いて、学習者に対する英会話レッスンが行われる。 By the functions described above, the teaching material pattern data indicating the curriculum of the English conversation lesson and each teaching material file used in the English conversation lesson are generated. Using these generated data, an English conversation lesson is given to the learner.

1-2.動作
次に、以上説明した語学教材生成システム1により実行される処理の流れについて説明する。具体的には、ディスコースコミュニティ分析処理と英会話教材生成処理の流れについて説明する。
1-2. Operation Next, the flow of processing executed by the language learning material generation system 1 described above will be described. Specifically, the flow of discourse community analysis processing and English conversation teaching material generation processing will be described.

図17は、ディスコースコミュニティ分析処理の一例を示すフロー図である。同図に示すディスコースコミュニティ分析処理が行われるにあたり、音声記憶部2には、学習対象となる会議中の英会話の音声データが記憶される。また、資料記憶部5には、上記の会議で使用された、アジェンダを示す資料のデータが記憶される。また、動画記憶部10には、上記の会議の場面を記録した動画データが記憶される。 FIG. 17 is a flow diagram showing an example of discourse community analysis processing. When the discourse community analysis process shown in FIG. 1 is performed, the voice storage unit 2 stores voice data of an English conversation during a meeting to be learned. The material storage unit 5 also stores data of materials indicating the agenda used in the conference. Further, the moving image storage unit 10 stores moving image data in which scenes of the conference are recorded.

この状況において、音声解析部3は、音声記憶部2に記憶される音声データを解析して、会議中の発言内容を特定し、特定した発言内容とその発言者とその発言の時点を対応付けることで、記譜データを生成する(ステップSa1)。生成された記譜データ(図2参照)は、記譜記憶部4に記憶される。 In this situation, the voice analysis unit 3 analyzes the voice data stored in the voice storage unit 2, specifies the content of the speech during the conference, and associates the specified content of the speech with the speaker and the time of the speech. notation data is generated (step Sa1). The generated musical notation data (see FIG. 2) is stored in the musical notation storage unit 4 .

次に、ゴール/結果リスト生成部6は、記譜記憶部4に記憶される記譜データと資料記憶部5に記憶される資料データに基づいて、ゴール、結果及び所要時間を特定して対応付けることで、ゴール/結果リストデータを生成する(ステップSa2)。図18は、このゴール/結果リストデータを生成する処理の一例を示すフロー図である。 Next, the goal/result list generation unit 6 identifies and associates goals, results, and required times based on the notation data stored in the notation storage unit 4 and the material data stored in the material storage unit 5. Thus, goal/result list data is generated (step Sa2). FIG. 18 is a flowchart showing an example of processing for generating this goal/result list data.

同図に示す処理において、ゴール/結果リスト生成部6は、まず、記譜データにより示される発言のうち、資料データにより示される議事を構成する語句を含む発言と、依頼を示す所定の語句を含む発言をゴールとして抽出する(ステップSa21)。 In the process shown in the figure, the goal/result list generation unit 6 first generates, from among the utterances indicated by the musical notation data, utterances including words and phrases constituting proceedings indicated by the material data and predetermined words and phrases indicating requests. Extract the utterance containing the goal as a goal (step Sa21).

次に、ゴール/結果リスト生成部6は、ステップSa21で抽出した各ゴールについて、記譜データにより示される発言のうち、当該ゴールが、後続する次のゴールに切り替わる直前の発言を当該ゴールの結果として抽出する(ステップSa22)。より具体的には、当該ゴールと、これに後続する次のゴールの間に位置する発言であって、当該次のゴールの直前の発言を当該ゴールの結果として抽出する。 Next, for each goal extracted in step Sa21, the goal/result list generator 6 converts the utterances indicated by the musical notation data immediately before the goal switches to the following goal as the result of the goal. (step Sa22). More specifically, the utterances located between the goal and the next goal following it and immediately before the next goal are extracted as the result of the goal.

次に、ゴール/結果リスト生成部6は、ステップSa21で抽出した各ゴールについて、当該ゴールが、後続する次のゴールに切り替わるまでの時間を当該ゴールの所要時間として特定する(ステップSa23)。より具体的には、当該ゴールが発言された時点と、後続する次のゴールが発言された時点の間の時間を当該ゴールの所要時間として特定する。 Next, for each goal extracted in step Sa21, the goal/result list generation unit 6 specifies the time required for the goal to switch to the next succeeding goal as the time required for the goal (step Sa23). More specifically, the time between when the goal is stated and when the next goal is stated is specified as the time required for the goal.

以上のステップSa21~Sa23を経ることで、ゴール/結果リストデータが生成される。生成されたゴール/結果リストデータ(図4参照)は、ゴール/結果リスト記憶部7に記憶される。 Goal/result list data is generated through steps Sa21 to Sa23. The generated goal/result list data (see FIG. 4) is stored in the goal/result list storage unit 7. FIG.

ゴール/結果リストデータが生成されると、次に、関連発言リスト生成部8は、ゴール/結果リスト記憶部7に記憶されるゴール/結果リストデータにより示される各ゴールについて、記譜記憶部4に記憶される記譜データにより示される発言の中から関連発言を抽出することで、関連発言リストデータを生成する(ステップSa3)。図19は、ゴールについて関連発言を抽出する処理の一例を示すフロー図である。 After the goal/result list data is generated, the related statement list generation unit 8 next creates the notation storage unit 4 for each goal indicated by the goal/result list data stored in the goal/result list storage unit 7. Related utterance list data is generated by extracting related utterances from the utterances indicated by the notation data stored in (step Sa3). FIG. 19 is a flow diagram showing an example of processing for extracting related statements about a goal.

同図に示す処理において、関連発言リスト生成部8は、まず、処理対象のゴールと、これに後続する次のゴールの間に位置する各発言のUsage度を算出する(ステップSa31)。 In the process shown in the figure, the related statement list generator 8 first calculates the usage degree of each statement positioned between the goal to be processed and the next goal following it (step Sa31).

次に、関連発言リスト生成部8は、ステップSa31で算出したUsage度が高い順に所定数の発言を関連発言として抽出する(ステップSa32)。ここで抽出される関連発言の数は、処理対象のゴールと、これに後続する次のゴールの間に位置する発言の総数の30%以下とする。 Next, the related statement list generator 8 extracts a predetermined number of statements as related statements in descending order of the degree of usage calculated in step Sa31 (step Sa32). The number of related utterances extracted here shall be 30% or less of the total number of utterances located between the goal to be processed and the next goal following it.

以上のステップSa31及びSa32が各ゴールについて行われることで、関連発言リストデータが生成される。生成された関連発言リストデータ(図5参照)は、関連発言リスト記憶部9に記憶される。 Related statement list data is generated by performing steps Sa31 and Sa32 for each goal. The generated related statement list data (see FIG. 5) is stored in the related statement list storage unit 9. FIG.

関連発言リストデータが生成されると、次に、身体動作リスト生成部11は、ゴール/結果リスト記憶部7に記憶されるゴール/結果リストデータにより示される各ゴールについて、動画記憶部10に記憶される動画データを解析して所定の身体動作とその動作者を特定し、特定した身体動作のリストデータを生成する(ステップSa4)。各ゴールについて身体動作とその動作者を特定するにあたっては、処理対象のゴールが発言された時点と、これに後続する次のゴールが発言された時点の間に行われた所定の身体動作とその動作者を、動画データを解析して特定する。身体動作リスト生成部11により生成された身体動作リストデータ(図7参照)は、身体動作リスト記憶部12に記憶される。 After the related statement list data is generated, the body action list generation unit 11 stores each goal indicated by the goal/result list data stored in the goal/result list storage unit 7 in the video storage unit 10. The moving image data obtained is analyzed to specify a predetermined body motion and its performer, and list data of the specified body motion is generated (step Sa4). In identifying the body motion and its performer for each goal, a predetermined body motion performed between the time when the goal to be processed was said and the time when the next goal following this was said The operator is identified by analyzing the video data. The body action list data (see FIG. 7) generated by the body action list generation section 11 is stored in the body action list storage section 12 .

次に、単語リスト生成部13は、記譜記憶部4に記憶される記譜データにより示される各単語を、図示せぬ辞書データベースを用いて語源及び品詞で分類することで、単語リストデータを生成する(ステップSa5)。生成された単語リストデータ(図8参照)は、単語リスト記憶部14に記憶される。 Next, the word list generation unit 13 classifies each word indicated by the notation data stored in the notation storage unit 4 by word origin and part of speech using a dictionary database (not shown), thereby generating word list data. Generate (step Sa5). The generated word list data (see FIG. 8) is stored in the word list storage unit 14. FIG.

以上説明したディスコースコミュニティ分析処理の結果、英会話教材の生成に使用されるゴール/結果リストデータ、関連発言リストデータ、身体動作リストデータ及び単語リストデータが生成される。このディスコースコミュニティ分析処理は、学習対象とされる英会話が行われる複数の会議の各々について実行される。 As a result of the discourse community analysis processing described above, goal/result list data, related statement list data, body action list data, and word list data used to generate English conversation teaching materials are generated. This discourse community analysis process is executed for each of a plurality of meetings in which English conversation to be learned is held.

次に、図20は、英会話教材生成処理の一例を示すフロー図である。同図に示す英会話教材生成処理が行われるにあたり、関連発言リスト群記憶部15には、複数の会議の各々について生成された関連発言リストデータが記憶される。また、ゴール/結果リスト群記憶部20には、複数の会議の各々について生成されたゴール/結果リストデータが記憶される。また、身体動作リスト群記憶部24には、複数の会議の各々について生成された身体動作リストデータが記憶される。また、単語リスト群記憶部26には、複数の会議の各々について生成された単語リストデータが記憶される。 Next, FIG. 20 is a flowchart showing an example of the English conversation teaching material generation process. When the English conversation teaching material generation process shown in FIG. 1 is performed, the related statement list group storage unit 15 stores related statement list data generated for each of a plurality of conferences. Also, the goal/result list group storage unit 20 stores goal/result list data generated for each of a plurality of meetings. The body action list group storage unit 24 also stores body action list data generated for each of a plurality of meetings. The word list group storage unit 26 also stores word list data generated for each of a plurality of meetings.

この状況において、ゴールレベル判定部18は、関連発言リスト群記憶部15に記憶される関連発言リストデータ群により示される各ゴールについて、ゴールに適した英会話の習熟度を判定することで、ゴールレベルデータを生成する(ステップSb1)。図21は、ゴールに適した英会話の習熟度を判定する処理の一例を示すフロー図である。 In this situation, the goal level determination unit 18 determines the proficiency level of English conversation suitable for each goal indicated by the related statement list data group stored in the related statement list group storage unit 15, thereby determining the goal level. Data is generated (step Sb1). FIG. 21 is a flow chart showing an example of processing for determining a proficiency level of English conversation suitable for a goal.

同図に示す処理において、ゴールレベル判定部18は、まず、処理対象のゴールについて抽出された関連発言を構成する各単語の難易度を判定する(ステップSb11)。難易度の判定にあたっては、難易度判定テーブル記憶部16に記憶される難易度判定テーブルが参照される。 In the process shown in the figure, the goal level determination unit 18 first determines the difficulty level of each word constituting the related statement extracted for the goal to be processed (step Sb11). The difficulty level determination table stored in the difficulty level determination table storage unit 16 is referred to when determining the difficulty level.

次に、ゴールレベル判定部18は、ステップSb11で判定した各単語の難易度に対応する英会話の習熟度を判定する(ステップSb12)。習熟度の判定にあたっては、習熟度判定テーブル記憶部17に記憶される習熟度判定テーブルが参照される。 Next, the goal level determination unit 18 determines the proficiency level of English conversation corresponding to the difficulty level of each word determined in step Sb11 (step Sb12). In determining the proficiency level, the proficiency level determination table stored in the proficiency level determination table storage unit 17 is referred to.

次に、ゴールレベル判定部18は、ステップSb12で判定した習熟度の中で最も高い習熟度を、処理対象のゴールの習熟度として特定する(ステップSb13)。 Next, the goal level determination unit 18 identifies the highest proficiency level among the proficiency levels determined in step Sb12 as the proficiency level of the goal to be processed (step Sb13).

以上のステップSb11~Sb13が各ゴールについて行われることで、ゴールレベルデータが生成される。生成されたゴールレベルデータ(図12参照)は、ゴールレベル記憶部19に記憶される。 Goal level data is generated by performing the above steps Sb11 to Sb13 for each goal. The generated goal level data (see FIG. 12) is stored in the goal level storage unit 19. FIG.

ゴールレベルデータが生成されると、次に、教材パターン生成部22は、レッスン情報テーブル記憶部21に記憶されるレッスン情報テーブルデータにより示される各クラスに適した教材パターンのデータを生成する(ステップSb2)。図22は、クラスに適した教材パターンを特定する処理の一例を示すフロー図である。 After the goal level data is generated, the teaching material pattern generation unit 22 next generates teaching material pattern data suitable for each class indicated by the lesson information table data stored in the lesson information table storage unit 21 (step Sb2). FIG. 22 is a flow diagram showing an example of processing for identifying a teaching material pattern suitable for a class.

同図に示す処理において、教材パターン生成部22は、まず、処理対象のクラスに適したゴールを選択する(ステップSb21)。具体的には、ゴールレベル記憶部19に記憶されるゴールレベルデータとレッスン情報テーブルデータを参照して、処理対象のクラスに参加する学習者と学習支援者の習熟度との間で所定の条件を満たす習熟度を有するゴールを選択する。ここで所定の条件とは、ゴールの習熟度が学習者の習熟度と同等か1段階高いという第1条件と、ゴールの習熟度がいずれの学習支援者の習熟度も超えないという第2条件の両条件である。 In the process shown in the figure, the teaching material pattern generator 22 first selects a goal suitable for the class to be processed (step Sb21). Specifically, with reference to the goal level data and the lesson information table data stored in the goal level storage unit 19, a predetermined condition is established between the learner participating in the class to be processed and the proficiency level of the learning supporter. Select a goal that has a proficiency that satisfies Here, the predetermined conditions are the first condition that the proficiency level of the goal is equal to or one step higher than the proficiency level of the learner, and the second condition that the proficiency level of the goal does not exceed the proficiency level of any learning supporter. are both conditions.

次に、教材パターン生成部22は、ステップSb21で選択したゴールをレッスン単位にグルーピングする(ステップSb22)。具体的には、ゴールレベル記憶部19に記憶されるゴール/結果リストデータ群(特に所要時間)を参照して、選択したゴールを、各グループを構成するゴールの所要時間の合計が1回のレッスン時間を超えないようにグルーピングし、各グループに教材IDを付与する。 Next, the teaching material pattern generation unit 22 groups the goals selected in step Sb21 into lesson units (step Sb22). Specifically, the goal/result list data group (particularly required time) stored in the goal level storage unit 19 is referred to, and the selected goal is set to the goal whose total required time of each group is one time. Grouping is performed so as not to exceed the lesson time, and a teaching material ID is given to each group.

以上のステップSb21及びSb22が各クラスについて行われることで、教材パターンデータが生成される。生成された教材パターンデータ(図14参照)は、教材パターン記憶部23に記憶され、かつ、レッスン情報テーブルデータにおいて処理対象のクラスと対応付けられる。 Teaching material pattern data is generated by performing the above steps Sb21 and Sb22 for each class. The generated teaching material pattern data (see FIG. 14) is stored in the teaching material pattern storage unit 23, and is associated with the class to be processed in the lesson information table data.

教材パターンデータが生成されると、次に、教材生成部27は、教材パターン記憶部23に記憶される教材パターンデータにより示される各教材のファイルを生成する(ステップSb3)。図23は、教材ファイルを生成する処理の一例を示すフロー図である。 After the teaching material pattern data is generated, the teaching material generating section 27 next generates a file of each teaching material indicated by the teaching material pattern data stored in the teaching material pattern storage section 23 (step Sb3). FIG. 23 is a flowchart showing an example of processing for generating a teaching material file.

同図に示す処理において、教材生成部27は、まず、ゴール/結果リスト群記憶部20に記憶されるゴール/結果リストデータ群を参照して、処理対象の教材を構成する各ゴールとその所要時間を特定する(ステップSb31)。 In the processing shown in the figure, the teaching material generation unit 27 first refers to the goal/result list data group stored in the goal/result list group storage unit 20, and determines each goal and its requirements that make up the teaching material to be processed. Specify the time (step Sb31).

次に、教材生成部27は、処理対象の教材を構成する各ゴールについて、身体動作リスト群記憶部24に記憶される身体動作リストデータを参照して身体動作を特定し、特定した身体動作に対応する補足事項を、補足事項判定テーブル記憶部25に記憶される補足事項判定テーブルデータを参照して特定する(ステップSb32)。 Next, the teaching material generation unit 27 refers to the body motion list data stored in the body motion list group storage unit 24 to specify a body motion for each goal that constitutes the teaching material to be processed. The corresponding supplementary item is specified by referring to the supplementary item determination table data stored in the supplementary item determination table storage unit 25 (step Sb32).

次に、教材生成部27は、処理対象の教材を構成する各ゴールについて、単語リスト群記憶部26に記憶される単語リストデータを参照して、専門用語とContextualを特定する(ステップSb33)。 Next, the educational material generation unit 27 refers to the word list data stored in the word list group storage unit 26 for each goal that constitutes the educational material to be processed, and specifies technical terms and contextual terms (step Sb33).

次に、教材生成部27は、ステップSb31で特定したゴール及び所要時間、ステップSb32で特定した補足事項、並びにステップSb33で特定した専門用語及びContextualが記述された教材ファイルを生成する(ステップSb34)。生成された教材ファイル(図16参照)は、教材記憶部28に記憶される。 Next, the teaching material generation unit 27 generates a teaching material file in which the goals and required time specified in step Sb31, the supplementary matters specified in step Sb32, and the technical terms and contextual specified in step Sb33 are described (step Sb34). . The generated educational material file (see FIG. 16) is stored in the educational material storage unit 28 .

以上のステップSb31~Sb33が各教材について行われることで、各教材ファイルが生成される。 Each educational material file is generated by performing steps Sb31 to Sb33 for each educational material.

以上説明した英会話教材生成処理の結果、英会話のレッスンのカリキュラムを示す教材パターンデータと、英会話のレッスンで使用される各教材ファイルが生成される。生成されたこれらのデータを用いて、学習者に対する英会話レッスンが行われる。 As a result of the English conversation teaching material generation processing described above, teaching material pattern data indicating the curriculum of the English conversation lesson and each teaching material file used in the English conversation lesson are generated. Using these generated data, an English conversation lesson is given to the learner.

以上説明した語学教材生成システム1によれば、ディスコースコミュニティ分析を通じて自動的に教材が作成されるため、学習対象である英会話が実際に行われている環境の文化的特徴を反映させた教材を作成することができる。また、教材開発の専門家の助けを借りなくても教材を作成することができる。 According to the language teaching material generation system 1 described above, teaching materials are automatically created through discourse community analysis. can be created. In addition, teaching materials can be created without the help of teaching material development specialists.

2.変形例
上記の実施形態は下記のように変形してもよい。なお、以下に記載する2以上の変形例は互いに組み合わせてもよい。
2. Modifications The above embodiments may be modified as follows. Two or more modified examples described below may be combined with each other.

2-1.変形例1
上記の実施形態では、学習対象の英会話として、会議中の英会話を想定しているが、学習対象の英会話はこれに限られない。例えば、電話応対や面接等のその他のシチュエーションで行われる英会話を学習対象としてもよい。
2-1. Modification 1
In the above embodiment, the English conversation to be learned is assumed to be English conversation during a meeting, but the English conversation to be learned is not limited to this. For example, English conversation conducted in other situations such as answering the phone or interviewing may be the object of learning.

2-2.変形例2
音声解析部3は、記譜データを生成する際、特定した発言内容に必ずしもその発言者を対応付けなくてもよい。
2-2. Modification 2
When generating musical notation data, the speech analysis unit 3 does not necessarily have to associate the speaker with the specified speech content.

2-3.変形例3
資料記憶部5に記憶される資料データは、必ずしも会議中に使用される資料のデータでなくてもよい。議事の進行順序が記載された資料であれば、例えば、議事録のデータであってもよい。
2-3. Modification 3
The material data stored in the material storage unit 5 does not necessarily have to be data of materials used during the conference. For example, minutes data may be used as long as the material describes the order of proceedings.

2-4.変形例4
ゴール/結果リスト生成部6は、ゴールを抽出する際、その抽出精度を高めるために、資料データに示される議事を構成する語句を含む発言であって、かつ、依頼を示す所定の語句を含む発言を抽出するようにしてもよい。また、ゴール/結果リスト生成部6は、ゴールを抽出する際、類義語データベースを参照して、資料データに示される議事を構成する語句の類義語を含む発言も抽出するようにしてもよい。
2-4. Modification 4
When extracting goals, the goal/result list generation unit 6 includes utterances that include words and phrases that constitute the proceedings shown in the material data, and that include predetermined words and phrases that indicate a request, in order to increase the accuracy of goal extraction. You may make it extract an utterance. Further, when extracting goals, the goal/result list generator 6 may refer to a synonym database to extract statements containing synonyms of the words forming the proceedings shown in the material data.

2-5.変形例5
ゴール/結果リスト生成部6は、ゴールの結果を抽出する際、当該ゴールの次のゴールの直前の発言を抽出するのに代えて、当該次のゴールよりも前の所定数(2以上)の発言を抽出するようにしてもよい。そして、抽出した各発言について、当該ゴールとの関連度を示すUsage度を算出し、Usage度が最も高い発言を当該ゴールの結果として抽出するようにしてもよい。なおここで、Usage度とは、発言が、当該ゴールを構成する語句を含む度合いを示す値である。
2-5. Modification 5
When extracting the result of a goal, the goal/result list generating unit 6 extracts a predetermined number (2 or more) of statements before the next goal instead of extracting the utterance immediately before the next goal of the goal. You may make it extract an utterance. Then, for each extracted utterance, a Usage degree indicating the degree of relevance to the goal may be calculated, and the utterance with the highest Usage degree may be extracted as the result of the goal. Here, the degree of usage is a value that indicates the degree to which the statement includes words and phrases that constitute the goal.

2-6.変形例6
関連発言リスト生成部8が抽出する関連発言の数は、ゴール間の発言数に応じて変化させずに、一律固定としてもよい。また、関連発言リスト生成部8は、Usage度を算出する際、類義語データベースを参照して、ゴールとその結果を構成する語句だけでなく、その語句の類義語を含む度合いを算出するようにしてもよい。
2-6. Modification 6
The number of related comments extracted by the related comment list generation unit 8 may be uniformly fixed without changing according to the number of comments between goals. Further, when calculating the Usage level, the related statement list generation unit 8 may refer to the synonym database to calculate the degree of inclusion of not only the words and phrases constituting the goal and its result, but also synonyms of the words and phrases. good.

2-7.変形例7
英会話の習熟度を示す指標として、CEFR以外の他の指標を用いてもよい。
2-7. Modification 7
Other indicators than CEFR may be used as indicators of proficiency in English conversation.

2-8.変形例8
ゴールレベル判定部18は、ゴールに適した習熟度を判定する際、最も高い習熟度をゴールの習熟度として特定するのに代えて、単語の出現数又は出現割合が所定の閾値を超える習熟度の中で最高の習熟度を、ゴールの習熟度として特定するようにしてもよい。または、単純に、単語の出現数又は出現割合が最高の習熟度を、ゴールの習熟度として特定するようにしてもよい。
2-8. Modification 8
When determining the proficiency level suitable for the goal, the goal level determination unit 18 determines the proficiency level in which the number of appearances or the appearance ratio of the word exceeds a predetermined threshold, instead of specifying the highest proficiency level as the proficiency level of the goal. , may be identified as the goal proficiency. Alternatively, the proficiency level with the highest word appearance count or appearance ratio may simply be specified as the goal proficiency level.

2-9.変形例9
ゴールレベル判定部18は、ゴールに適した習熟度を判定する際、関連発言を構成する単語の難易度に基づいて習熟度を判定するのに代えて、関連発言が発言された際の話す速度に応じて習熟度を判定するようにしてもよい。ここで、関連発言が発言された際の話す速度は、関連発言を構成する単語数を、関連発言を行うのに要した時間(言い換えると、関連発言の開始時と終了時の時間差)で除することにより求められる。ゴールレベル判定部18は、話す速度と習熟度を対応付けた習熟度判定テーブルを予め記憶しておき、この習熟度判定テーブルを参照して、求めた話す速度を習熟度に変換する。
2-9. Modification 9
When determining the proficiency level suitable for the goal, the goal level determination unit 18 determines the proficiency level based on the difficulty level of the words that make up the related statement, instead of determining the proficiency level based on the speaking speed at which the related statement was made. You may make it determine a proficiency level according to. Here, the speaking speed when the related statement is made is the number of words that make up the related statement divided by the time required to make the related statement (in other words, the time difference between the start and end of the related statement). It is obtained by The goal level determination unit 18 stores in advance a proficiency level determination table that associates speaking speeds with proficiency levels, and refers to this proficiency level determination table to convert the obtained speaking speed into proficiency levels.

2-10.変形例10
ゴールレベル判定部18は、ゴールに適した習熟度を判定する際、関連発言を構成する単語の難易度に基づいて習熟度を判定するのに代えて、当該ゴールと後続する次のゴールの間に位置するすべての発言の難易度に基づいて習熟度を判定するようにしてもよい。この変形例が採用された場合、関連発言リスト生成部8、関連発言リスト記憶部9及び関連発言リスト群記憶部15は不要となる。
2-10. Modification 10
When determining the proficiency level suitable for a goal, the goal level determination unit 18 determines the proficiency level between the goal and the following goal instead of determining the proficiency level based on the difficulty of the words that make up the related remarks. The proficiency level may be determined based on the difficulty level of all utterances positioned at . When this modified example is adopted, the related comment list generator 8, the related comment list storage unit 9, and the related comment list group storage unit 15 become unnecessary.

2-11.変形例11
教材パターン生成部22がゴールを選択される際に基づく条件は、上記の第1条件及び第2条件の組に限られない。教材パターン生成部22は、第1条件と第2条件のうちの一方のみに基づいて、ゴールを選択するようにしてもよい。または、ゴールの習熟度が学習者の習熟度と同等であるといった条件や、特定の発言者により発言されたゴールであるといった条件のような別の条件に基づいて、ゴールを選択するようにしてもよい。なお、特定の発言者により発言されたゴールであるという条件が設定された場合には、教材パターン生成部22は、記譜データを参照して、その特定の発言者により発言されたゴールを選択する。
2-11. Modification 11
The condition based on which the learning material pattern generation unit 22 selects a goal is not limited to the set of the first condition and the second condition. The teaching material pattern generation unit 22 may select a goal based on only one of the first condition and the second condition. Or, choose a goal based on another condition, such as the goal's proficiency being equal to the learner's proficiency, or the goal being said by a particular speaker. good too. Note that when a condition is set that the goal is stated by a specific speaker, the teaching material pattern generation unit 22 refers to the notation data and selects the goal stated by the specific speaker. do.

2-12.変形例12
教材生成部27は、教材ファイルを生成する際、専門用語とContextual以外の単語も、単語リストデータを参照して特定して教材ファイルに記述するようにしてもよい。
2-12. Modification 12
When generating the teaching material file, the teaching material generating unit 27 may refer to the word list data to specify words other than technical terms and contextual terms and describe them in the teaching material file.

2-13.変形例13
上記の実施形態では、学習対象として英会話が想定されているが、学習者の母語と異なる言語であれば、他の言語による会話であってもよい。
2-13. Modification 13
In the above embodiment, English conversation is assumed as a learning object, but conversation in other languages may be possible as long as the language is different from the native language of the learner.

1…語学教材生成システム、2…音声記憶部、3…音声解析部、4…記譜記憶部、5…資料記憶部、6…ゴール/結果リスト生成部、7…ゴール/結果リスト記憶部、8…関連発言リスト生成部、9…関連発言リスト記憶部、10…動画記憶部、11…身体動作リスト生成部、12…身体動作リスト記憶部、13…単語リスト生成部、14…単語リスト記憶部、15…関連発言リスト群記憶部、16…難易度判定テーブル記憶部、17…習熟度判定テーブル記憶部、18…ゴールレベル判定部、19…ゴールレベル記憶部、20…ゴール/結果リスト群記憶部、21…レッスン情報テーブル記憶部、22…教材パターン生成部、23…教材パターン記憶部、24…身体動作リスト群記憶部、25…補足事項判定テーブル記憶部、26…単語リスト群記憶部、27…教材生成部、28…教材記憶部 1... Language learning material generation system 2... Voice storage unit 3... Voice analysis unit 4... Notation storage unit 5... Material storage unit 6... Goal/result list generation unit 7... Goal/result list storage unit 8 Related statement list generation unit 9 Related statement list storage unit 10 Moving image storage unit 11 Body motion list generation unit 12 Body motion list storage unit 13 Word list generation unit 14 Word list storage Part 15 Related statement list group storage unit 16 Difficulty level determination table storage unit 17 Proficiency level determination table storage unit 18 Goal level determination unit 19 Goal level storage unit 20 Goal/result list group Storage unit 21 Lesson information table storage unit 22 Teaching material pattern generation unit 23 Teaching material pattern storage unit 24 Body action list group storage unit 25 Supplementary item determination table storage unit 26 Word list group storage unit , 27... Teaching material generation unit, 28... Teaching material storage unit

Claims (2)

外国語を用いて行われた会話の音声を解析して、複数の発言と、当該複数の発言の各々がなされた時点を特定する音声解析部と、
前記特定された複数の発言のうち、前記会話が行われた際に使用された資料に記載されている語句を含む複数の発言をゴールとして抽出するゴール抽出部と、
前記抽出された複数のゴールの各々について、前記特定された複数の発言の中から、当該ゴールと当該ゴールに後続する他のゴールの間に位置する発言であって、当該他のゴールから所定の範囲内に位置する発言を当該ゴールの結果として抽出する結果抽出部と、
前記抽出された複数のゴールの各々について、当該ゴールが発言された時点と、当該ゴールに後続する他のゴールが発言された時点の間の時間を当該ゴールの所要時間として特定する所要時間特定部と、
前記抽出された複数のゴールの各々について、前記特定された複数の発言のうち、当該ゴールと当該ゴールに後続する他のゴールの間に位置する複数の発言の各々について、当該ゴール又は当該ゴールについて抽出された結果を構成する語句を含む度合いを示す関連度を判定し、判定した関連度が高い順に所定数以下の発言を当該ゴールの関連発言として抽出する関連発言抽出部と、
前記抽出された複数のゴールの各々について、当該ゴールについて抽出された関連発言を構成する語句の難易度に基づいて、当該ゴールに適した前記外国語の習熟度を判定する習熟度判定部と、
前記抽出された複数のゴールの中から、当該ゴールについて判定された習熟度と前記外国語の学習者の習熟度との間、および、当該ゴールについて判定された習熟度と前記外国語の学習支援者の習熟度との間で所定の条件を満たす複数のゴールを選択するゴール選択部と、
前記選択された複数のゴールを、各グループを構成するゴールの所要時間の合計が所定の学習時間を超えないようにグループ分けするゴールグルーピング部と、
グループ分けされた前記複数のグループの各々について、当該グループを構成する複数のゴールと当該複数のゴールの各々の所要時間を示すファイルを教材として生成する教材生成部と
を備える語学教材生成システム。
a voice analysis unit that analyzes the voice of a conversation conducted using a foreign language and identifies a plurality of utterances and the point in time at which each of the plurality of utterances was made;
a goal extracting unit for extracting, as goals, a plurality of utterances including words and phrases described in materials used when the conversation was conducted, from among the plurality of specified utterances;
For each of the plurality of extracted goals, from among the plurality of identified utterances, a utterance positioned between the goal and another goal following the goal, and which is a utterance that is positioned between the goal and another goal following the goal, and a result extracting unit that extracts utterances located within the range as a result of the goal;
A required time specifying unit for specifying, for each of the extracted goals, the time between when the goal is said and when another goal following the goal is said as the time required for that goal. and,
For each of the extracted goals, for each of the plurality of utterances positioned between the goal and another goal following the goal, among the specified utterances, for the goal or for the goal a related statement extracting unit that determines a degree of relevance indicating the degree of inclusion of phrases constituting the extracted result, and extracts a predetermined number or less of statements as related statements of the goal in descending order of the determined degree of relevance;
a proficiency level determination unit that determines, for each of the plurality of goals extracted, the proficiency level of the foreign language suitable for the goal based on the level of difficulty of words and phrases that form related remarks extracted for the goal;
Between the proficiency level determined for the goal and the foreign language learner 's proficiency level from among the plurality of goals extracted, and learning support for the foreign language between the proficiency level determined for the goal and the foreign language learner's proficiency level a goal selection unit that selects a plurality of goals that satisfy a predetermined condition between the proficiency level of the user;
a goal grouping unit for grouping the plurality of selected goals so that the total required time of the goals constituting each group does not exceed a predetermined learning time;
A language learning material generation system, comprising: a teaching material generation unit that generates, as teaching materials, a file indicating, for each of the plurality of grouped groups, a plurality of goals constituting the group and a required time for each of the plurality of goals.
前記抽出された複数のゴールの各々について、当該ゴールが発言された時点と、当該ゴールに後続する他のゴールが発言された時点の間に行われた所定の身体動作を、前記会話の場面を記録した動画を解析して特定する身体動作特定部と、
前記抽出された複数のゴールの各々について、当該ゴールについて特定された身体動作に予め対応付けられている、前記学習者の身体動作又は学習環境に関する注意点を示す補足事項を特定する補足事項特定部と
をさらに備え、
前記教材生成部は、グループ分けされた前記複数のグループの各々について、当該グループを構成する複数のゴールと当該複数のゴールの各々の所要時間と補足事項を示すファイルを教材として生成する
ことを特徴とする請求項1に記載の語学教材生成システム。
For each of the plurality of extracted goals, a predetermined body action performed between the point at which the goal is stated and the point at which another goal subsequent to the goal is stated is recorded in the scene of the conversation. a body movement identification unit that analyzes and identifies the recorded video;
A supplementary matter identification unit that identifies, for each of the plurality of goals extracted, a supplementary matter that is pre-associated with the body movement identified for the goal and that indicates a cautionary note regarding the learner's body movement or learning environment. and
The teaching material generating unit generates, for each of the plurality of grouped groups, a file indicating, as teaching materials, a plurality of goals constituting the group, the required time for each of the plurality of goals, and supplementary matters. 2. A language learning material generation system according to claim 1.
JP2019046016A 2019-03-13 2019-03-13 Language teaching material generation system Active JP7296029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019046016A JP7296029B2 (en) 2019-03-13 2019-03-13 Language teaching material generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019046016A JP7296029B2 (en) 2019-03-13 2019-03-13 Language teaching material generation system

Publications (2)

Publication Number Publication Date
JP2020148892A JP2020148892A (en) 2020-09-17
JP7296029B2 true JP7296029B2 (en) 2023-06-22

Family

ID=72432266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019046016A Active JP7296029B2 (en) 2019-03-13 2019-03-13 Language teaching material generation system

Country Status (1)

Country Link
JP (1) JP7296029B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149053A (en) 2000-11-08 2002-05-22 Kochi Univ Of Technology Method and device for learning foreign language conversation and storage medium with program therefor
JP2002278441A (en) 2001-03-21 2002-09-27 Gaba:Kk Foreign language conversation teaching material for private lessen
JP2004020739A (en) 2002-06-13 2004-01-22 Kojima Co Ltd Device, method and program for preparing minutes
US20140297266A1 (en) 2013-02-15 2014-10-02 Voxy, Inc. Systems and methods for extracting keywords in language learning
US20170221471A1 (en) 2016-01-28 2017-08-03 Google Inc. Adaptive text-to-speech outputs
JP2017215943A (en) 2016-05-27 2017-12-07 株式会社リコー Information sharing support system, information sharing support device, information sharing support method, and program
JP2018116190A (en) 2017-01-19 2018-07-26 有限会社トピックメーカー Language teaching material creation system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149053A (en) 2000-11-08 2002-05-22 Kochi Univ Of Technology Method and device for learning foreign language conversation and storage medium with program therefor
JP2002278441A (en) 2001-03-21 2002-09-27 Gaba:Kk Foreign language conversation teaching material for private lessen
JP2004020739A (en) 2002-06-13 2004-01-22 Kojima Co Ltd Device, method and program for preparing minutes
US20140297266A1 (en) 2013-02-15 2014-10-02 Voxy, Inc. Systems and methods for extracting keywords in language learning
US20170221471A1 (en) 2016-01-28 2017-08-03 Google Inc. Adaptive text-to-speech outputs
JP2017215943A (en) 2016-05-27 2017-12-07 株式会社リコー Information sharing support system, information sharing support device, information sharing support method, and program
JP2018116190A (en) 2017-01-19 2018-07-26 有限会社トピックメーカー Language teaching material creation system

Also Published As

Publication number Publication date
JP2020148892A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
US8843372B1 (en) Natural conversational technology system and method
Jenks Recording and transcribing social interaction
Bragg et al. A large inclusive study of human listening rates
KR102644992B1 (en) English speaking teaching method using interactive artificial intelligence avatar based on the topic of educational content, device and system therefor
Nestor et al. Discourse ‘like’and social identity–a case study of Poles in Ireland
Izumi et al. SST speech corpus of Japanese learners’ English and automatic detection of learners’ errors
Pareti et al. Dialog intent structure: A hierarchical schema of linked dialog acts
Gardner-Chloros Historical and modern studies of code-switching: A tale of mutual enrichment
Sivaraman et al. Simplified audio production in asynchronous voice-based discussions
Praharaj et al. Towards collaborative convergence: quantifying collaboration quality with automated co-located collaboration analytics
Amrouche et al. Balanced Arabic corpus design for speech synthesis
US20210264812A1 (en) Language learning system and method
Ureta et al. At home with Alexa: a tale of two conversational agents
Patil et al. Towards modelling coherence in spoken discourse
Gaizauskas Evaluation in language and speech technology
Skidmore Incremental disfluency detection for spoken learner english
JP7296029B2 (en) Language teaching material generation system
Yasir et al. Web-based automation speech-to-text application using audio recording for meeting speech
Deuchar et al. ‘Mae pobl monolingual yn minority’: Factors Favouring the Production of Code Switching by Welsh–English Bilingual Speakers
JP2006236037A (en) Voice interaction content creation method, device, program and recording medium
di Gregorio Voice to text: Automating transcription
JP6743108B2 (en) PATTERN RECOGNITION MODEL AND PATTERN LEARNING DEVICE, GENERATION METHOD THEREOF, FAQ EXTRACTION METHOD USING THE SAME, PATTERN RECOGNITION DEVICE, AND PROGRAM
Hirai et al. Using Speech-to-Text Applications for Assessing English Language Learners’ Pronunciation: A Comparison with Human Raters
Matsuda Finger braille teaching system using tablet computer
Siminyu et al. Corpus Development of Kiswahili Speech Recognition Test and Evaluation sets, Preemptively Mitigating Demographic Bias Through Collaboration with Linguists

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230502

R150 Certificate of patent or registration of utility model

Ref document number: 7296029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350