JP5230515B2 - Language teaching method using thought units and connected questions - Google Patents

Language teaching method using thought units and connected questions Download PDF

Info

Publication number
JP5230515B2
JP5230515B2 JP2009102219A JP2009102219A JP5230515B2 JP 5230515 B2 JP5230515 B2 JP 5230515B2 JP 2009102219 A JP2009102219 A JP 2009102219A JP 2009102219 A JP2009102219 A JP 2009102219A JP 5230515 B2 JP5230515 B2 JP 5230515B2
Authority
JP
Japan
Prior art keywords
learning
unit
subscriber
thought
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2009102219A
Other languages
Japanese (ja)
Other versions
JP2009163266A (en
Inventor
ジャン−スー,キム
Original Assignee
ジーエヌビー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジーエヌビー カンパニー リミテッド filed Critical ジーエヌビー カンパニー リミテッド
Publication of JP2009163266A publication Critical patent/JP2009163266A/en
Application granted granted Critical
Publication of JP5230515B2 publication Critical patent/JP5230515B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は言語教育システムに係り、より詳しくは学習者の水準に応じて、聞き取り、発話、読み取り、書き込みの言語教育を効果的に学習し得るように、教育過程をインターネットとマルチメディアを用いて提供するシステム及び方法に関するものである。   The present invention relates to a language education system. More specifically, according to the level of the learner, the education process is performed using the Internet and multimedia so that the language education of listening, speaking, reading and writing can be effectively learned. The present invention relates to a system and method.

近来、一般加入者に超高速インターネットサービスが提供されるにつれて、加入者は実時間動映像など多様なコンテンツに接近しやすくなっている。   Recently, as ultra high-speed Internet services are provided to general subscribers, subscribers are becoming more accessible to various contents such as real-time video.

インターネットを介して提供されるサービスは、電子商取引、インターネット教育など多様である。   There are various services provided through the Internet, such as electronic commerce and Internet education.

しかし、このようなインターネット教育は従来の学習方法をそのままインターネットに移しておいたものにすぎないから、効果的な学習を提供し難い問題点がある。すなわち、従来のインターネット教育方法は、学習教材をマルチメディア方式に変換してオンラインで学習者に提供するという長所はあるが、学習効果が高められる学習方法によるサービスを提供していない。一方、従来、CD(Compact Disk)又はDVD(Digital Video Disk)にマルチメディア学習資料を格納させて学習者に提供する方法により、学習者が自発的に学習し得る教育方法が用いられている。しかし、このような学習資料の提供方法は学習者に膨大なマルチメディア学習資料を提供することができるが、学習者が学習を効果的に行える方法は提供していない。   However, since such Internet education is merely a transfer of the conventional learning method to the Internet, there is a problem that it is difficult to provide effective learning. That is, the conventional Internet education method has an advantage of providing learning materials online by converting learning materials into a multimedia method, but does not provide a service by a learning method that can enhance learning effects. On the other hand, conventionally, there is used an educational method in which a learner can learn spontaneously by a method of storing multimedia learning material on a CD (Compact Disk) or DVD (Digital Video Disk) and providing it to the learner. However, such a method for providing learning materials can provide a large amount of multimedia learning materials to the learner, but does not provide a method for the learner to effectively learn.

その一例としては英語教育があるが、英語教育は、聞き取り、発話、読み取り、書き込みなどに分けることができる。したがって、英語教育を効果的に行うためには、前記聞き取り、発話、読み取り、書き込みとも効果的に学習させる必要がある。   One example is English education. English education can be divided into listening, speaking, reading, and writing. Therefore, in order to effectively teach English, it is necessary to effectively learn both listening, speaking, reading, and writing.

前記のような従来の英語教育方法は、状況に合う対話場面を動映像で再生して反復学習させるため、大きな学習効果を期待し難い問題点がある。また、従来の方法は単純な文章を全て連結して学習者に出力させるため、各文章を構成している思考単位(一つの意味を構成する単語の集合)が認識できなくなる。したがって、学習者は文章全部を丸のまま暗記する必要があるため、状況に合う文章の具現ができなくなる。   The conventional English teaching method as described above has a problem that it is difficult to expect a large learning effect because a conversation scene suitable for the situation is reproduced as a moving image and repeatedly learned. Moreover, since the conventional method connects all simple sentences and outputs them to the learner, it is impossible to recognize the thought units (a set of words constituting one meaning) constituting each sentence. Therefore, since the learner needs to memorize all the sentences in a circle, it becomes impossible to implement the sentences that suit the situation.

したがって、本発明は前述した従来技術の諸般問題点を解決するためになされたもので、一つの文章を思考単位に分けて順次提供し、学習者に質問した後、学習者の応答に応じて学習段階を進ませる思考単位及び連結質問を用いる言語教育システムを提供することにその目的がある。   Accordingly, the present invention has been made to solve the above-mentioned problems of the prior art, and sequentially provides one sentence divided into units of thought, asks the learner, and then responds to the learner's response. Its purpose is to provide a language education system that uses thought units and linked questions to advance the learning phase.

本発明のほかの目的は、一つの文章を思考単位に分け、聞き取り、発話、読み取り、書き込みの学習ができるように順次提供し、質問の後、学習者の応答に応じて学習段階を進ませる思考単位及び連結質問を用いる言語教育方法を提供することにある。   Another object of the present invention is to divide a sentence into units of thought and provide them sequentially so that they can learn listening, speaking, reading, and writing, and then advance the learning phase according to the learner's response after the question. The object is to provide a language teaching method using thought units and linked questions.

前記目的を達成するための本発明の特徴による思考単位及び連結質問を用いる言語教育方法は、言語学習プログラムを加入者の学習水準に応じて、それぞれの文章を語順に従って複数の思考単位と前記思考単位に対応する連結質問に分けて格納する段階と、前記ネットワークを介して接続された加入者のターミナルから加入者の学習段階情報と学習プログラム進行方法を入力してもらう段階と、前記入力された学習段階情報に対応する学習資料を抽出する段階と、前記入力された学習プログラム進行方法に応じて、前記抽出された学習資料が前記加入者のターミナルに出力されるように制御する段階とからなる。   In order to achieve the object, a language education method using thought units and linked questions according to the present invention includes a language learning program according to a subscriber's learning level, and each sentence in accordance with a word order and a plurality of thought units and the thoughts. Storing the divided questions corresponding to the unit separately, receiving the learning stage information of the subscriber and the learning program progress method from the subscriber terminal connected through the network, and the input Extracting learning material corresponding to the learning stage information, and controlling the extracted learning material to be output to the subscriber's terminal according to the input learning program progression method. .

以上説明したように、本発明は、従来の英語教育方法が状況による場面を動映像で再生して反復学習するため、高い学習効果を期待し難い問題点があり、単純な文章を全て連結して学習者に出力させるため、各文章を構成している思考単位を認識できなくなり、学習者が文章全体を丸のまま暗記する必要があって状況による文章の具現ができなくなる問題点を解決したもので、インターネットを介して、聞き取り、発話及び書き込み教育を学習者の能力に合わせて効果的に提供することができる。また、本発明は、各文章を状況に応じて変化させ得るように思考単位と連結質問を提供することができる。また、本発明によると、学習しようとする言語の語順構造を自然に学習することができ、文章生成能力及び文章予測能力を向上させることができる。さらに、本発明によると、マルチメディア学習資料により、オンライン及びオフラインの多様な方法で学習可能である。   As explained above, the present invention has a problem that it is difficult to expect a high learning effect because the conventional English teaching method reproduces scenes according to the situation by moving images and repeats learning, and all simple sentences are connected. Solved the problem that the learner could not recognize the thought units that make up each sentence, and the learner had to memorize the whole sentence as a circle, making it impossible to embody the sentence according to the situation. Therefore, listening, speaking and writing education can be effectively provided according to the ability of the learner via the Internet. Moreover, this invention can provide a thinking unit and a connection question so that each sentence can be changed according to a condition. Moreover, according to the present invention, the word order structure of the language to be learned can be naturally learned, and the sentence generation ability and sentence prediction ability can be improved. Furthermore, according to the present invention, it is possible to learn in various ways online and offline using multimedia learning materials.

本発明の一実施例による言語教育システムにおける情報提供者装置の構成を詳細に示すブロック図である。It is a block diagram which shows in detail the structure of the information provider apparatus in the language education system by one Example of this invention. 本発明の一実施例による言語教育システムにおける加入者装置の構成を詳細に示すブロック図である。It is a block diagram which shows in detail the structure of the subscriber apparatus in the language education system by one Example of this invention. 本発明のほかの実施例による言語教育システムにおける情報提供者装置の構成を詳細に示すブロック図である。It is a block diagram which shows in detail the structure of the information provider apparatus in the language education system by the other Example of this invention. 本発明のほかの実施例による言語教育システムにおける加入者装置の構成を詳細に示すブロック図である。It is a block diagram which shows in detail the structure of the subscriber apparatus in the language education system by the other Example of this invention. (a)は図1及び図3に示すマルチメディアデータベースの構造を示す図であり、(b)は図1及び図3に示す学習資料データベースの構造を示す図であり、(c)は図1及び図3に示す会員データベースのマスターファイルの構造を示す図であり、(d)は図1及び図3に示す会員データベースの成績ファイルの構造を示す図である。(A) is a figure which shows the structure of the multimedia database shown in FIG.1 and FIG.3, (b) is a figure which shows the structure of the learning material database shown in FIG.1 and FIG.3, (c) is a figure which shows FIG. 4 is a diagram showing a structure of a master file of the member database shown in FIG. 3, and FIG. 4D is a diagram showing a structure of a result file of the member database shown in FIGS. 1 and 3. FIG. 本発明の実施例による思考単位及び連結質問を用いる言語教育システムの動作を示すフローチャートである。4 is a flowchart illustrating an operation of a language education system using thinking units and linked questions according to an embodiment of the present invention. 図6に示す思考単位データ文章出力段階を基本学習式で出力させる例を詳細に示すフローチャートである。It is a flowchart which shows in detail the example which outputs the thinking unit data sentence output step shown in FIG. 6 by a basic learning formula. 図6に示す思考単位データ文章出力段階を累積反復学習式で出力させる例を詳細に示すフローチャートである。It is a flowchart which shows in detail the example which outputs the thought unit data sentence output step shown in FIG. 6 by a cumulative iterative learning formula. 図6に示す役割学習制御段階を詳細に示すフローチャートである。It is a flowchart which shows the role learning control step shown in FIG. 6 in detail. 図9に示す発話学習制御段階の一例(発話学習制御1)を示すフローチャートである。It is a flowchart which shows an example (utterance learning control 1) of the utterance learning control stage shown in FIG. 図9に示す発話学習制御段階のほかの例(発話学習制御2)を示すフローチャートである。It is a flowchart which shows the other example (utterance learning control 2) of the utterance learning control stage shown in FIG. 図9に示す発話学習制御段階のさらにほかの例(発話学習制御3)を示すフローチャートである。It is a flowchart which shows the further another example (utterance learning control 3) of the utterance learning control stage shown in FIG. 図9に示す発話学習制御段階のさらにほかの例(発話学習制御4)を示すフローチャートである。It is a flowchart which shows the further another example (utterance learning control 4) of the utterance learning control stage shown in FIG. 図9に示す発話学習制御段階のさらにほかの例(発話学習制御5)を示すフローチャートである。It is a flowchart which shows the further another example (utterance learning control 5) of the utterance learning control stage shown in FIG. 図9に示す発話学習制御段階のさらにほかの例(発話学習制御6)を示すフローチャートである。It is a flowchart which shows the further another example (utterance learning control 6) of the utterance learning control stage shown in FIG. 図6に示す読み取り学習制御段階を基本学習式で出力させる例を詳細に示すフローチャートである。It is a flowchart which shows in detail the example which outputs the reading learning control stage shown in FIG. 6 by a basic learning formula. 図6に示す読み取り学習制御段階を累積反復学習式で出力させる例を詳細に示すフローチャートである。7 is a flowchart showing in detail an example of outputting the reading learning control stage shown in FIG. 6 by a cumulative iterative learning formula. 図6に示す書き取り学習制御段階を基本学習式で出力させる例を詳細に示すフローチャートである。It is a flowchart which shows in detail the example which outputs the writing learning control stage shown in FIG. 6 by a basic learning formula. 図6に示す書き取り学習制御段階を累積反復学習式で出力させる例を詳細に示すフローチャートである。It is a flowchart which shows in detail the example which outputs the writing learning control step shown in FIG.

以下、図1ないし図19に基づいて本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS.

図1及び図2に示す本発明の一実施例は、情報提供者装置により学習過程が制御される例を示すものである。   The embodiment of the present invention shown in FIGS. 1 and 2 shows an example in which the learning process is controlled by the information provider device.

図1は、本発明の一実施例によるインターネットとマルチメディアを用いる言語教育システムにおける情報提供者装置の構成を詳細に示す図である。同図において、参照符号110は学習資料格納部、120は認識部、130は送信制御部、140は会員管理部、150は受信資料格納部、160はネットワークインターフェース、111は学習資料データベース、113は学習資料抽出制御部、115は思考単位テキストバッファ、116は動映像データバッファ、117は連結質問テキストバッファ、121は第1比較部、122は音声認識部、123は第2比較部、141は会員データベース、142は会員認識部、151は受信テキストバッファ、152は受信オーディオバッファ、153は受信制御部をそれぞれ示す。   FIG. 1 is a diagram illustrating in detail a configuration of an information provider device in a language education system using the Internet and multimedia according to an embodiment of the present invention. In the figure, reference numeral 110 is a learning material storage unit, 120 is a recognition unit, 130 is a transmission control unit, 140 is a member management unit, 150 is a reception material storage unit, 160 is a network interface, 111 is a learning material database, 113 is Learning material extraction control unit, 115 is a thought unit text buffer, 116 is a moving picture data buffer, 117 is a linked question text buffer, 121 is a first comparison unit, 122 is a speech recognition unit, 123 is a second comparison unit, and 141 is a member Reference numeral 142 denotes a member recognition unit, 151 denotes a reception text buffer, 152 denotes a reception audio buffer, and 153 denotes a reception control unit.

まず、図面に基づいて学習資料格納部110を詳細に説明する。全ての学習資料は学習資料データベース111に格納される。前記学習資料データベース111は、例えばSQLサーバーから構成することができる。   First, the learning material storage unit 110 will be described in detail based on the drawings. All learning materials are stored in the learning material database 111. The learning material database 111 can be composed of, for example, an SQL server.

こうして、学習資料データベース111に格納された学習資料は学習資料抽出制御部113の制御により抽出された後、それぞれのコンテンツ別にバッファに格納される。すなわち、学習資料データベース111からの思考単位テキストは思考単位テキストバッファ115に、連結質問テキストは連結質問テキストバッファ117にそれぞれ格納される。   Thus, the learning material stored in the learning material database 111 is extracted under the control of the learning material extraction control unit 113 and then stored in the buffer for each content. That is, the thought unit text from the learning material database 111 is stored in the thought unit text buffer 115, and the linked question text is stored in the linked question text buffer 117.

本発明において、前記思考単位は文章を構成する一つの意味を構成する単語の集合であると言える。例えば、“I went to Kimpo airport to see my American friend.”という文章は“I went”と“to Kimpo airport”、“to see”、“my America friend”の四つの思考単位に分けられる。ここで、思考単位を順に調べると、前記“I went”という思考単位についで“to Kimpo airport”という思考単位がある。ところが、前記“to Kimpo airport”という思考単位は場所を示す思考単位である。したがって、学習者から“to Kimpo airport”という答えを得るためには、“I went”という思考単位の後に“どこに”という質問をするとよい。このような“どこに”という質問を本発明においては場所を示す思考単位を得るための連結質問という。したがって、前記例においては、三つの連結質問が構成できる。   In the present invention, it can be said that the unit of thought is a set of words constituting one meaning constituting a sentence. For example, the sentence “I went to Kimpo airport to see my American friend.” Is divided into four thought units of “I went”, “to Kimpo airport”, “to see”, and “my America friend”. Here, when thinking units are examined in order, there is a thinking unit called “to Kimpo airport” after the thinking unit “I went”. However, the thinking unit “to Kimpo airport” is a thinking unit indicating a place. Therefore, in order to obtain the answer “to Kimpo airport” from the learner, it is better to ask the question “where” after the thought unit “I went”. In the present invention, such a question “where” is called a linked question for obtaining a thought unit indicating a place. Therefore, in the above example, three linked questions can be configured.

前記実施例においては一つの連結質問に一つの思考単位が連結されるように構成したが、文章生成能力を高めるため、一つの連結質問に多数の思考単位が連結されるように構成してもよい。   In the above embodiment, one thinking unit is connected to one linked question. However, in order to improve the sentence generation ability, a plurality of thinking units may be connected to one connected question. Good.

この際、このように格納するバッファは思考単位の数によってn個を格納する。そして、前記学習資料抽出制御部113は送信制御部130からの制御信号に応じて、抽出される学習資料を選択する。   At this time, n buffers are stored according to the number of thought units. The learning material extraction control unit 113 selects the learning material to be extracted according to the control signal from the transmission control unit 130.

このように学習資料格納部110の思考単位テキストバッファ115と連結質問テキストバッファ117に格納されたデータは送信制御部130に入力される。そして、前記送信制御部130に入力されたデータはネットワークインターフェース160を介してインターネット170に送信される。   Thus, the data stored in the thought unit text buffer 115 and the linked question text buffer 117 of the learning material storage unit 110 are input to the transmission control unit 130. The data input to the transmission control unit 130 is transmitted to the Internet 170 via the network interface 160.

一方、インターネット170からのデータはネットワークインターフェース160を介して受信制御部153に入力される。すると、受信制御部153は、受信されたデータが会員情報を示す場合には会員認識部142に出力し、オーディオデータである場合には受信オーディオバッファ152、テキストデータである場合には受信テキストバッファ151に出力する。   On the other hand, data from the Internet 170 is input to the reception control unit 153 via the network interface 160. Then, the reception control unit 153 outputs the received data to the member recognition unit 142 when the received data indicates member information. If the received data is audio data, the reception control unit 153 outputs the received audio buffer 152. If the received data is text data, the reception control unit 153 outputs the received text buffer. 151 is output.

会員認識部142は、会員データベース141に格納された会員情報と受信制御部153からの会員情報を比較して会員を認識する。   The member recognition unit 142 recognizes the member by comparing the member information stored in the member database 141 with the member information from the reception control unit 153.

そして、認識部120の第1比較部121は思考単位テキストバッファ115と受信テキストバッファ151のテキストを比較し、加入者の書き取りが正確であるかを判断して送信制御部130に出力する。同様に、認識部120の第2比較部123は思考単位テキストバッファ115からの思考単位テキストと音声認識部122からの認識されたテキストを比較し、加入者の発音が正確であるかを判断して送信制御部130に出力する。   The first comparison unit 121 of the recognition unit 120 compares the texts in the thought unit text buffer 115 and the received text buffer 151, determines whether the subscriber's writing is accurate, and outputs the result to the transmission control unit 130. Similarly, the second comparison unit 123 of the recognition unit 120 compares the thought unit text from the thought unit text buffer 115 with the recognized text from the speech recognition unit 122 to determine whether the pronunciation of the subscriber is accurate. To the transmission control unit 130.

図2は本発明の一実施例によるインターネットとマルチメディアを用いる言語教育システムにおいて、加入者装置の構成を詳細に示す図である。同図において、参照符号210はネットワークインターフェース、220は受信制御部、230は送信制御部、240は学習資料格納バッファ、250は出力制御部、260はビデオカード、270はサウンドカード、280はマイク、241は思考単位テキストバッファ、242は音声変換部、243は連結質問テキストバッファ、244は動映像データバッファをそれぞれ示す。   FIG. 2 is a diagram showing in detail a configuration of a subscriber device in a language education system using the Internet and multimedia according to an embodiment of the present invention. In the figure, reference numeral 210 is a network interface, 220 is a reception control unit, 230 is a transmission control unit, 240 is a learning material storage buffer, 250 is an output control unit, 260 is a video card, 270 is a sound card, 280 is a microphone, Reference numeral 241 denotes a thought unit text buffer, 242 denotes an audio conversion unit, 243 denotes a linked question text buffer, and 244 denotes a moving image data buffer.

情報提供者装置からのデータはネットワークインターフェース210を介して受信制御部220に受信される。すると、受信制御部220は受信されたデータをそれぞれ区分し、思考単位テキストデータは思考単位テキストバッファ241に、連結質問テキストデータは連結質問テキストバッファ243にそれぞれ格納する。   Data from the information provider device is received by the reception control unit 220 via the network interface 210. Then, the reception control unit 220 classifies the received data, and stores the thinking unit text data in the thinking unit text buffer 241 and the linked question text data in the linked question text buffer 243, respectively.

このように、思考単位テキストバッファ241と連結質問テキストバッファ243に格納されたテキストデータは出力制御部250の制御によりビデオカード260を介してモニタに出力される。一方、音声変換部242により変換された思考単位又は連結質問オーディオデータは、出力制御部250の制御によりサウンドカード270を介してスピーカに出力される。   As described above, the text data stored in the thought unit text buffer 241 and the linked question text buffer 243 is output to the monitor via the video card 260 under the control of the output control unit 250. On the other hand, the thought unit or the connected question audio data converted by the voice conversion unit 242 is output to the speaker via the sound card 270 under the control of the output control unit 250.

一方、加入者からの音声信号はマイク280を介してサウンドカード270に入力される。そして、このようにサウンドカード270に入力された音声信号はオーディオデータに変換された後、送信制御部230の制御により送信される。このように送信されたオーディオデータはインターネットを介して前記情報提供者装置に受信される。   On the other hand, the audio signal from the subscriber is input to the sound card 270 via the microphone 280. The audio signal input to the sound card 270 is converted into audio data and then transmitted under the control of the transmission control unit 230. The audio data transmitted in this way is received by the information provider apparatus via the Internet.

図1及び図2に示す実施例においては、インターネットを介して情報提供者装置と加入者装置との間で学習資料を伝送することを例として説明したが、情報提供者装置から提供される学習資料を移動式格納装置(例えば、CD、DVDなど)に格納して加入者装置に一括的に提供した後、実行してもよい。この際、前記加入者装置は移動式格納装置を駆動し得る、例えば個人用コンピュータで構成することができる。同様に、学習者は加入装置を介して情報提供者装置から学習資料を一括的にダウンロードしてから実行し学習を行うことができる。したがって、本発明の実施例による言語教育システムはオンライン及びオフラインで教育することができる。   In the embodiment shown in FIGS. 1 and 2, the learning material is transmitted between the information provider device and the subscriber device via the Internet as an example, but learning provided from the information provider device is described. It may be executed after the material is stored in a mobile storage device (eg, CD, DVD, etc.) and provided to the subscriber device collectively. In this case, the subscriber unit can be constituted by a personal computer, for example, which can drive a mobile storage device. Similarly, the learner can perform learning by downloading the learning materials from the information provider device collectively via the joining device and then executing the learning material. Therefore, the language education system according to the embodiment of the present invention can be taught online and offline.

図3及び図4に示す本発明のほかの実施例は加入者装置により学習過程が制御される例を示すものである。   3 and 4 show an example in which the learning process is controlled by a subscriber unit.

まず、図3は本発明のほかの実施例によるインターネットとマルチメディアを用いる言語教育システムにおける情報提供者装置を構成を詳細に示す図である。同図において、参照符号310は学習資料格納部、320は送信制御部、330は会員管理部、340は受信制御部、360はネットワークインターフェース、370はインターネット、311は学習資料抽出制御部、312は学習資料データベース、313は思考単位テキストバッファ、314は連結質問テキストバッファ、315は動映像データバッファ、331は会員データベース、332は会員認識部をそれぞれ示す。   FIG. 3 is a diagram showing in detail the configuration of an information provider device in a language education system using the Internet and multimedia according to another embodiment of the present invention. In the figure, reference numeral 310 is a learning material storage unit, 320 is a transmission control unit, 330 is a member management unit, 340 is a reception control unit, 360 is a network interface, 370 is the Internet, 311 is a learning material extraction control unit, and 312 is The learning material database, 313 is a thought unit text buffer, 314 is a linked question text buffer, 315 is a moving image data buffer, 331 is a member database, and 332 is a member recognition unit.

図面に基づいて学習資料格納部310を詳細に説明する。全ての学習資料は学習資料データベース312に格納される。前記学習資料データベース312は、例えばSQLサーバーで構成することができる。   The learning material storage unit 310 will be described in detail based on the drawings. All learning materials are stored in the learning material database 312. The learning material database 312 can be composed of, for example, an SQL server.

このように、学習資料データベース312に格納された学習資料は学習資料抽出制御部311の制御により抽出された後、それぞれのコンテンツ別に格納される。すなわち、学習資料データベース312からの思考単位テキストは思考単位テキストバッファ313に、連結質問テキストは連結質問テキストバッファ314にそれぞれ格納される。   As described above, the learning material stored in the learning material database 312 is extracted under the control of the learning material extraction control unit 311 and then stored for each content. That is, the thought unit text from the learning material database 312 is stored in the thought unit text buffer 313, and the linked question text is stored in the linked question text buffer 314.

この際、このように格納されるバッファは思考単位の数によってn個を格納する。そして、前記学習資料抽出制御部311は、送信制御部320からの制御信号に応じて、抽出される学習資料を選択する。   At this time, n buffers are stored according to the number of thought units. The learning material extraction control unit 311 selects the learning material to be extracted according to the control signal from the transmission control unit 320.

このように学習資料格納部310の思考単位テキストバッファ313と連結質問テキストバッファ314に格納されたデータは送信制御部320に入力される。そして、前記送信制御部320に入力されたデータはネットワークインターフェース360を介してインターネット370に送信される。   Thus, the data stored in the thought unit text buffer 313 and the linked question text buffer 314 of the learning material storage unit 310 are input to the transmission control unit 320. The data input to the transmission control unit 320 is transmitted to the Internet 370 through the network interface 360.

一方、インターネット370からのデータはネットワークインターフェース360を介して受信制御部340に入力される。すると、受信制御部340は、受信されたデータが会員情報を示す場合には会員認識部332に出力する。会員認識部332は、会員データベース331に格納された会員情報と受信制御部340からの会員情報を比較して会員を認識する。   On the other hand, data from the Internet 370 is input to the reception control unit 340 via the network interface 360. Then, the reception control unit 340 outputs the received data to the member recognition unit 332 when the received data indicates member information. The member recognition unit 332 recognizes the member by comparing the member information stored in the member database 331 with the member information from the reception control unit 340.

図4は本発明のさらにほかの実施例によるインターネットとマルチメディアを用いる言語教育システムにおける加入者装置の構成を詳細に示す図である。同図において、参照符号410はネットワークインターフェース、420は送受信制御部、430は学習資料格納バッファ、440は認識部、450は出力制御部、460はビデオカード、470は入力部、471はテキストバッファ、472はキーボード、473はオーディオバッファ、474はサウンドカード、475はマイクをそれぞれ示す。   FIG. 4 is a diagram showing in detail a configuration of a subscriber device in a language education system using the Internet and multimedia according to still another embodiment of the present invention. In the figure, reference numeral 410 is a network interface, 420 is a transmission / reception control unit, 430 is a learning material storage buffer, 440 is a recognition unit, 450 is an output control unit, 460 is a video card, 470 is an input unit, 471 is a text buffer, Reference numeral 472 denotes a keyboard, 473 denotes an audio buffer, 474 denotes a sound card, and 475 denotes a microphone.

情報提供者装置からのデータはネットワークインターフェース410を介して送受信制御部420に受信される。すると、送受信制御部420は受信されたデータをそれぞれ区分し、思考単位テキストデータは思考単位テキストバッファ431に、連結質問テキストデータは連結質問テキストバッファ433にそれぞれ格納する。   Data from the information provider device is received by the transmission / reception control unit 420 via the network interface 410. Then, the transmission / reception control unit 420 classifies the received data, and stores the thinking unit text data in the thinking unit text buffer 431 and the linked question text data in the linked question text buffer 433, respectively.

このように思考単位テキストバッファ431と連結質問テキストバッファ433に格納されたテキストデータは出力制御部450の制御により、ビデオカード460を介してモニタに出力される。一方、音声変換部432により変換された思考単位又は連結質問オーディオデータは出力制御部450の制御によりサウンドカード474を介してスピーカに出力される。   The text data thus stored in the thought unit text buffer 431 and the linked question text buffer 433 is output to the monitor via the video card 460 under the control of the output control unit 450. On the other hand, the thought unit or the connected question audio data converted by the voice conversion unit 432 is output to the speaker via the sound card 474 under the control of the output control unit 450.

そして、キーボード472に入力されたテキストデータはテキストバッファ471に入力され、マイク475とサウンドカード474を介して入力されたオーディオデータはオーディオバッファ473にそれぞれ格納される。   The text data input to the keyboard 472 is input to the text buffer 471, and the audio data input via the microphone 475 and the sound card 474 is stored in the audio buffer 473, respectively.

一方、認識部440の第3比較部441は、思考単位テキストバッファ431とテキストバッファ471のテキストを比較し加入者の書き取りが正確であるかを判断して出力制御部450に出力する。同様に、認識部440のテキスト比較部443は思考単位テキストバッファ431と音声認識部442からの認識されたテキストを比較し、加入者の発音が正確であるかを判断して出力制御部450に出力する。   On the other hand, the third comparison unit 441 of the recognition unit 440 compares the texts in the thought unit text buffer 431 and the text buffer 471, determines whether the subscriber's writing is accurate, and outputs the result to the output control unit 450. Similarly, the text comparison unit 443 of the recognition unit 440 compares the recognized texts from the thought unit text buffer 431 and the speech recognition unit 442, determines whether the pronunciation of the subscriber is accurate, and sends it to the output control unit 450. Output.

図3及び図4に示す実施例においては、インターネットを介して情報提供者装置と加入者装置との間で学習資料を伝送することを例として説明したが、情報提供者装置から提供される学習資料を移動式格納装置(例えば、CD、DVDなど)に格納して加入者装置に一括的に提供した後、実行してもよい。この際、前記加入者装置は移動式格納装置を駆動し得る、例えば個人用コンピュータで構成することができる。同様に、学習者は加入装置を介して情報提供者装置から学習資料を一括的にダウンロードしてから実行し学習を行うことができる。したがって、本発明の実施例による言語教育システムはオンライン及びオフラインで教育することができる。   In the embodiment shown in FIG. 3 and FIG. 4, the learning material is transmitted between the information provider device and the subscriber device via the Internet as an example, but learning provided from the information provider device is described. It may be executed after the material is stored in a mobile storage device (eg, CD, DVD, etc.) and provided to the subscriber device collectively. In this case, the subscriber unit can be constituted by a personal computer, for example, which can drive a mobile storage device. Similarly, the learner can perform learning by downloading the learning materials from the information provider device collectively via the joining device and then executing the learning material. Therefore, the language education system according to the embodiment of the present invention can be taught online and offline.

図5aないし図5dは図1及び図3に示す学習資料データベースと会員データベースの構造を詳細に示す図である。   5a to 5d are diagrams showing in detail the structures of the learning material database and the member database shown in FIGS.

ここで、図5aはマルチメディアデータベース、図5bは学習資料データベース、図5cは会員データベースのマスターファイル、図5dは会員データベースの成績ファイルをそれぞれ示す。   5a shows a multimedia database, FIG. 5b shows a learning material database, FIG. 5c shows a master file of the member database, and FIG. 5d shows a result file of the member database.

まず、前記マルチメディアデータベース(図5a)は、学習資料コード、動映像データ、及び学習進行手順プログラムフィールドで構成される。そして、前記学習資料データベース(図5b)は、図示のように、学習資料コード、俳優コード、キャプションコード、思考単位テキスト、思考単位翻訳テキスト、及び連結質問テキストフィールドから構成される。前記思考単位テキストと連結質問テキストフィールドは一つのセットで、思考単位の数に相当する、例えばn個のセットで構成される。前記それぞれのセットを本発明では連結質問セットと定義する。そして、前記思考単位翻訳テキストは対応思考単位テキストの翻訳データが格納されるフィールドである。前記連結質問セットのn番目セットはつぎの質問がないので、連結質問テキストフィールドを含まないように構成される。   First, the multimedia database (FIG. 5a) includes a learning material code, moving image data, and a learning progress procedure program field. The learning material database (FIG. 5b) includes a learning material code, an actor code, a caption code, a thinking unit text, a thinking unit translation text, and a linked question text field, as shown. The thought unit text and the linked question text field are composed of one set, for example, n sets corresponding to the number of thought units. In the present invention, each set is defined as a linked question set. The thought unit translation text is a field in which translation data of the corresponding thought unit text is stored. Since the nth set of the linked question set has no next question, it is configured not to include a linked question text field.

また、会員データベースのマスターファイル(図5c)は、会員コード、氏名、住所、秘密番号、現在学習資料コード、現在キャプションコード、学習水準、及び学習結果フィールドから構成される。ここで、前記現在学習資料コードフィールドには、会員が学習している学習資料コードが格納される。そして、前記現在キャプションコードは学習者が最終に学習した台詞のキャプションコードが格納される。   The master file of the member database (FIG. 5c) is composed of a member code, name, address, secret number, current learning material code, current caption code, learning level, and learning result field. Here, the current learning material code field stores a learning material code that the member is learning. The current caption code stores the caption code of the speech that the learner finally learned.

最終に、会員データベースの成績ファイル(図5d)は、会員コード、学習資料コード、基本学習点数、発話点数、及び書き取り点数から構成される。このような会員データベースには、各会員の学習資料別に基本学習点数、発話点数、及び書き取り点数が記録される。前期会員データベースの成績ファイルと会員データベースのマスターファイルは会員コードに1対多で対応される。   Finally, the member database results file (FIG. 5d) is composed of a member code, a learning material code, a basic learning score, an utterance score, and a writing score. In such a member database, the basic learning score, the utterance score, and the writing score are recorded for each member's learning material. The results file of the first term member database and the master file of the member database correspond to the member code on a one-to-many basis.

図6は本発明の実施例による思考単位及び連結質問を用いる言語教育システムの動作を示すフローチャートである。   FIG. 6 is a flowchart illustrating the operation of the language education system using the thinking unit and the linked question according to the embodiment of the present invention.

このような動作の制御は、図1に示す送信制御部130、又は図2に示す出力制御部250により制御される。前記送信制御部130又は出力制御部250は該当学習資料に対応され、学習資料データベース111に格納された学習進行手順プログラムに基づいて学習を制御する。ここでは、説明を容易にするため、出力制御部250に前記学習進行手順プログラムが設置され実行されるものと説明する。   Such operation control is controlled by the transmission control unit 130 shown in FIG. 1 or the output control unit 250 shown in FIG. The transmission control unit 130 or the output control unit 250 controls learning based on a learning progress procedure program stored in the learning material database 111 corresponding to the corresponding learning material. Here, for ease of explanation, it is assumed that the learning progress procedure program is installed in the output control unit 250 and executed.

まず、出力制御部250は学習者が感想モードを選択したかを判断する(S110)。この際、学習者が感想モードを選択した場合、出力制御部250は動映像データバッファ244から動映像データを抽出し動映像データをプレイさせる(S120)。こうして、学習者は学習に関連した動映像(例えば、映画又は講義)を視聴することができる。   First, the output control unit 250 determines whether the learner has selected the impression mode (S110). At this time, when the learner selects the impression mode, the output control unit 250 extracts the moving image data from the moving image data buffer 244 and plays the moving image data (S120). Thus, the learner can view a moving image (for example, a movie or a lecture) related to learning.

ついで、出力制御部250は学習者が聞き取り学習モードを選択したかを判断する(S130)。聞き取り学習モードは、学習者が動映像を感想しながら、特定の台詞部分の文章を思考単位別に分けて聞き取るか、全文章を繰り返して聴取しながら学習できるようにする。学習者が聞き取り学習モードを選択すると、出力制御部250は該当学習文章を思考単位別に順次出力させる。   Next, the output control unit 250 determines whether the learner has selected the listening learning mode (S130). The listening learning mode allows the learner to learn while listening to a specific dialogue part while thinking about moving images, or by listening to the whole sentence repeatedly. When the learner selects the listening learning mode, the output control unit 250 sequentially outputs corresponding learning sentences for each thinking unit.

一方、学習者が発話学習モードを選択すると(S150)、出力制御部250は役割学習ができるようにする。すなわち、発話学習モードは動映像の俳優のなかで一人を選択してその俳優の台詞を言わせることにより学習できるようにする。したがって、学習者が発話学習モードを選択すると、出力制御部250は役割学習制御を開始する(S160)。   On the other hand, when the learner selects the utterance learning mode (S150), the output control unit 250 enables role learning. That is, the utterance learning mode enables learning by selecting one of the moving picture actors and letting the actor speak. Therefore, when the learner selects the utterance learning mode, the output control unit 250 starts role learning control (S160).

ついで、学習者が読み取り学習モードを選択すると(S170)、出力制御部250は読み取り学習ができるように制御する。このような読み取り学習モードは、動映像の位置に対応する文章を思考単位別に出力させ、学習者が発音するようにして、読み取り学習ができるようにする。前記読み取り学習モードにおいて、学習者は文章を構成する思考単位と連結質問を用いて学習することができるので、言語活用能力を高めることができる。   Next, when the learner selects the reading learning mode (S170), the output control unit 250 performs control so that reading learning can be performed. In such a reading learning mode, a sentence corresponding to the position of a moving image is output for each thinking unit so that the learner can pronounce and learn reading. In the reading learning mode, the learner can learn using the thinking units and the connected questions constituting the sentence, so that the language utilization ability can be enhanced.

最後に、学習者が書き込み学習モードを選択すると(S190)、出力制御部250は学習者が書き取り学習できるようにする。したがって、書き込み学習モードは動映像のなかで対応文章を学習者がキーボードで入力させるか、単語を選択的に入力して書き込み学習できるようにする。このような書き込み学習モードは文章を構成する思考単位又は全文章に対して書き込み学習できるようにする。   Finally, when the learner selects the writing learning mode (S190), the output control unit 250 enables the learner to write and learn. Therefore, in the writing learning mode, the learner can input the corresponding sentence in the moving image with the keyboard or selectively input the word so that the learning can be performed. Such a writing learning mode enables writing learning with respect to a thinking unit or all sentences constituting the sentence.

図7は図6に示す思考単位データ文章出力段階を基本学習式で出力する例を詳細に示すフローチャートである。   FIG. 7 is a flowchart showing in detail an example of outputting the thought unit data sentence output stage shown in FIG. 6 by a basic learning formula.

同図に示すように、基本学習方法によると、送信制御部130又は320は現在思考単位テキストを伝送し(S310)、それに対応する現在思考単位テキスト及び音声出力命令を伝送させる(S320)。   As shown in the figure, according to the basic learning method, the transmission control unit 130 or 320 transmits the current thought unit text (S310), and transmits the corresponding current thought unit text and the voice output command (S320).

すなわち、現在思考単位の値がiである場合、送信制御部は第i思考単位テキストを出力させる。   That is, when the value of the current thinking unit is i, the transmission control unit outputs the i-th thinking unit text.

図8は図6に示す思考単位データ文章出力段階を累積反復学習式で出力させる例を詳細に示すフローチャートである。   FIG. 8 is a flowchart showing in detail an example of outputting the thought unit data sentence output stage shown in FIG. 6 by a cumulative iterative learning formula.

同図に示すように、累積反復学習式によると、送信制御部130又は320は最初思考単位から現在思考単位までのテキストデータを結合する(S330)。ついで、送信制御部は前記のように結合されたテキストデータを伝送させた後(S340)、結合された思考単位テキスト及び音声出力命令を伝送させる(S350)。したがって、現在思考単位が1ずつ増加する都度、加入者は1ずつ累積された思考単位のテキストデータを受信することになる。   As shown in the figure, according to the cumulative iterative learning formula, the transmission control unit 130 or 320 combines text data from the first thinking unit to the current thinking unit (S330). Next, the transmission control unit transmits the combined text data as described above (S340), and then transmits the combined thought unit text and voice output command (S350). Therefore, each time the current thinking unit increases by 1, the subscriber receives the text data of the thinking unit accumulated one by one.

図9は図6に示す役割学習制御段階を詳細に示すフローチャートである。   FIG. 9 is a flowchart showing in detail the role learning control stage shown in FIG.

まず、発話学習モードが始まると、出力制御部450は、学習者が動映像で役割可能な俳優を選択するようにする(S412)。この際、学習者が選択した俳優の情報は図5bに示す俳優コードに対応する。前記学習者の役割は学習を進む途中で換えることができる。   First, when the utterance learning mode is started, the output control unit 450 causes the learner to select an actor that can play a role in a moving image (S412). At this time, the information on the actor selected by the learner corresponds to the actor code shown in FIG. The role of the learner can be changed during the course of learning.

このように、学習者の俳優役割が選択されると、出力制御部は動映像データバッファ434から動映像データを抽出してビデオカード460及びサウンドカード474を介してプレイさせる(S414)。この際、前記プレイされる動映像データの俳優の台詞の文章は図5bに示すようなキャプションコードと対応してビデオカードを介してテキストとして出力される。前記出力されるテキストは図5bに示す第1思考単位テキストないし第n思考単位テキストが結合されて一つの文章として出力されるようにする。   As described above, when the actor role of the learner is selected, the output control unit extracts the moving image data from the moving image data buffer 434 and plays it through the video card 460 and the sound card 474 (S414). At this time, the sentence of the actor's dialogue of the moving image data to be played is output as text via the video card in correspondence with the caption code as shown in FIG. 5b. The output text is output as one sentence by combining the first thought unit text to the nth thought unit text shown in FIG. 5B.

このように学習が進むうちに、出力制御部は出力すべき俳優の台詞が学習者の役割として指定された俳優の台詞に相当するかを判断する(S416)。この際、学習者が選択した俳優の台詞に相当する場合は、動映像データの音声データがサウンドカードを介して出力されないように中止させるとともに、動映像のプレイを暫く止める(S418〜S420)。   As learning proceeds, the output control unit determines whether the actor's dialogue to be output corresponds to the actor's dialogue designated as the role of the learner (S416). At this time, if it corresponds to the dialogue of the actor selected by the learner, the audio data of the moving image data is stopped so as not to be output via the sound card, and the playing of the moving image is stopped for a while (S418 to S420).

ついで、出力制御部は、前記役割者の台詞に対し、学習者が発話学習できるように発話学習制御を開始する(S422)。本発明の実施例においては、前記発話学習制御は六つの例を挙げて説明する(図10ないし図15)。前記発話学習制御が終わると、出力制御部は学習者の選択によって役割学習(発話学習)を続けるか、役割学習を終了する(S424)。   Next, the output control unit starts the utterance learning control so that the learner can learn the utterance in response to the role person's dialogue (S422). In the embodiment of the present invention, the speech learning control will be described with reference to six examples (FIGS. 10 to 15). When the utterance learning control is completed, the output control unit continues role learning (utterance learning) according to the learner's selection or ends role learning (S424).

図10は図9に示す発話学習制御段階S422の一例(発話学習制御1)を示すフローチャートである。ここで、学習者は発話学習の開始部に相当する模倣話し学習を行うことができる。   FIG. 10 is a flowchart showing an example (utterance learning control 1) of the utterance learning control step S422 shown in FIG. Here, the learner can perform imitation talk learning corresponding to the start part of speech learning.

まず、出力制御部は、学習者に現在思考単位テキスト(例えば、“I went”)を出力する(S42)。前記現在思考単位テキストの出力は音声又はテキストとして出力される。そして、出力制御部は学習者の音声を認識し(S434)、学習者が正しく模倣話しを行ったかを判断する。この際、出力制御部は学習者の音声が正しく認識されていない場合は、数回にわたって(例えば、3回)入力し改めるようにする。   First, the output control unit outputs the current thought unit text (for example, “I went”) to the learner (S42). The current thought unit text is output as voice or text. Then, the output control unit recognizes the learner's voice (S434) and determines whether the learner has correctly imitated the conversation. At this time, when the learner's voice is not correctly recognized, the output control unit inputs and corrects the input several times (for example, three times).

ついで、出力制御部は、前記出力された現在思考単位の翻訳テキストと連結質問(例えば、“私は行った(どこに)”)を出力する(S436)。そして、出力制御部は学習者の音声を認識し(S438)、正しく模倣話しを行ったかを判断する。こうして、現在思考単位のテキストと翻訳テキスト及び連結質問が出力される。   Next, the output control unit outputs the output translated text of the current thinking unit and a linked question (for example, “I went (where)”) (S436). Then, the output control unit recognizes the learner's voice (S438) and determines whether the imitation talk has been performed correctly. Thus, the text of the current thinking unit, the translation text, and the linked question are output.

前記のように、現在思考単位の翻訳テキストと連結質問の出力が行われると、出力制御部は現在思考単位を増加させた後(S440)、前記段階S432から繰り返して行う。前記現在思考単位を増加させる段階S440で、思考単位が全て出力された場合、出力制御部は発話学習制御をリターンさせる。   As described above, when the translated text of the current thought unit and the connected question are output, the output control unit repeats from the step S432 after increasing the current thought unit (S440). When all the thought units are output in step S440 of increasing the current thought unit, the output control unit returns the utterance learning control.

図11は図9に示す発話学習制御段階S442のほかの例(発話学習制御2)を示すフローチャートである。ここで、役割者の台詞に含まれた思考単位の翻訳テキストを音声出力すると、学習者は出力された翻訳テキストに対応する思考単位を話すようにする学習方法を例として説明する。この際、学習者には連結質問が出力されない。   FIG. 11 is a flowchart showing another example (speech learning control 2) of the utterance learning control step S442 shown in FIG. Here, a learning method will be described as an example in which when the translated text of the thought unit included in the dialogue of the role person is output by voice, the learner speaks the thought unit corresponding to the output translated text. At this time, the connection question is not output to the learner.

まず、出力制御部は学習者に現在思考単位の翻訳テキスト(例えば、“私は行った”)を音声出力する(S452)。そして、学習者から音声を入力して認識し(S454)、適合するかを判断する(S456)。この際、出力制御部は学習者の音声認識結果と現在思考単位テキスト(例えば、“I went”)を比較する。したがって、学習者は母国語質問(思考単位翻訳テキスト)に対して外国語応答(思考単位テキスト)を行い、発話学習が行えることになる。   First, the output control unit outputs a translated text (for example, “I did”) of the current thinking unit to the learner by voice (S452). Then, a voice is input from the learner to be recognized (S454), and it is determined whether or not it matches (S456). At this time, the output control unit compares the speech recognition result of the learner with the current thought unit text (for example, “I went”). Therefore, the learner can perform utterance learning by making a foreign language response (thinking unit text) to the native language question (thinking unit translation text).

ついで、出力制御部は現在思考単位を増加させ(S458)、役割者の台詞を構成している思考単位に対する発話学習を進ませる。   Next, the output control unit increases the current thinking unit (S458), and advances the utterance learning for the thinking unit constituting the role person's dialogue.

図12は図9に示す発話制御段階S422のさらにほかの例(発話学習制御3)を示すフローチャートである。これは、図11の発話学習を累積反復式で進ませる場合を例として示すものである。   FIG. 12 is a flowchart showing still another example (speech learning control 3) of the utterance control step S422 shown in FIG. This is an example in which the utterance learning of FIG. 11 is advanced by a cumulative iteration formula.

まず、出力制御部は、現在思考単位の翻訳テキスト(例えば、“私は行った”)を出力する(S461)。そして、出力制御部は学習者の音声を認識する(S462)。この際、出力制御部は、認識された学習者の音声と現在思考単位テキスト(例えば、“I went”)を比較する。   First, the output control unit outputs a translation text (for example, “I went”) of the current thought unit (S461). The output control unit recognizes the learner's voice (S462). At this time, the output control unit compares the recognized learner's voice with the current thought unit text (for example, “I went”).

ついで、出力制御部は現在思考単位を増加させ(S463)、現在思考単位テキストがないと、発話学習制御をリターンさせる。仮に、現在思考単位テキストがあると、出力制御部は現在思考単位翻訳テキスト(例えば、“キンポ空港に”)を出力させる(S465)。そして、出力制御部は学習者の音声を認識する(S466)。この際、出力制御部は、認識された学習者の音声と現在思考単位テキスト(例えば、“to Kimpo airport”)を比較する。   Next, the output control unit increases the current thinking unit (S463), and if there is no current thinking unit text, the speech learning control is returned. If there is a current thought unit text, the output control unit outputs the current thought unit translation text (for example, “to Kimpo Airport”) (S465). Then, the output control unit recognizes the learner's voice (S466). At this time, the output control unit compares the recognized learner's voice with the current thought unit text (for example, “to Kimpo airport”).

続いて、出力制御部は、現在まで出力された思考単位翻訳テキストの累積(例えば、“私は行ったキンポ空港に”)を出力させる(S467)。そして、出力制御部は学習者の音声を認識する(S468)。この際、出力制御部は、認識された学習者の音声と現在思考単位テキストの累積(例えば、“I went to Kimpo airport”)を比較する。前記学習者の音声認識段階S468を行った後、出力制御部は現在思考単位増加段階S463から繰り返して行う。   Subsequently, the output control unit outputs the accumulation of thought unit translation texts output so far (for example, “I went to Kimpo Airport”) (S467). The output control unit recognizes the learner's voice (S468). At this time, the output control unit compares the recognized learner's voice with the accumulation of the current thought unit text (for example, “I went to Kimpo airport”). After performing the learner's speech recognition step S468, the output controller repeats the current thinking unit increase step S463.

図13は図9に示す発話し学習制御段階S422のさらにほかの例(発話学習制御4)を示すフローチャートである。これは、連結質問に対する思考単位発話学習を例として示すものである。   FIG. 13 is a flowchart showing still another example (speech learning control 4) of the utterance learning control step S422 shown in FIG. This shows an example of thinking unit utterance learning for a linked question.

まず、出力制御部は、現在思考単位翻訳テキスト(例えば、“私は行った”)を出力させる(S471)。そして、出力制御部は学習者の音声を認識する(S472)。この際、出力制御部は学習者の音声認識結果と現在思考単位テキスト(例えば、“I went”)を比較する。ついで、出力制御部は現在思考単位の連結質問(例えば、“どこに”)を出力させる(S473)。   First, the output control unit outputs the current thought unit translation text (for example, “I did”) (S471). Then, the output control unit recognizes the learner's voice (S472). At this time, the output control unit compares the speech recognition result of the learner with the current thought unit text (for example, “I went”). Next, the output control unit outputs a connected question (for example, “where”) of the current thought unit (S473).

このように連結質問が出力されると、出力制御部は現在思考単位を増加させ(S474)、思考単位の出力が終わったかを判断する(S475)。この際、発話学習の思考単位の出力が終わったら、出力制御部は発話学習制御をリターンさせる。仮に、発話学習の思考単位の出力が終わっていないと、出力制御部は学習者の音声を認識する(S476)。この際、出力制御部は学習者の音声認識結果と現在思考単位テキスト(例えば、“to Kimpo airport”)を比較する。そして、出力制御部は、前記現在思考単位の連結質問出力段階S473から繰り返して行う。   When the linked question is output in this way, the output control unit increases the current thinking unit (S474), and determines whether the output of the thinking unit is finished (S475). At this time, when the output of the thinking unit of the utterance learning is finished, the output control unit returns the utterance learning control. If the output of the thought unit of utterance learning is not finished, the output control unit recognizes the learner's voice (S476). At this time, the output control unit compares the voice recognition result of the learner with the current thought unit text (for example, “to Kimpo airport”). Then, the output control unit repeatedly performs the current thought unit linked question output step S473.

図14は図9に示す発話学習制御段階S422のさらにほかの例(発話学習制御5)を示すフローチャートである。これは、図13の発話学習の連結質問の出力を累積反復式で進ませる場合を例として示すものである。   FIG. 14 is a flowchart showing still another example (utterance learning control 5) of the utterance learning control step S422 shown in FIG. This shows an example of a case where the output of the connected question of speech learning in FIG.

まず、出力制御部は現在思考単位の翻訳テキスト(例えば、“私は行った”)を出力させる(S481)。そして、出力制御部は学習者の音声を認識する(S482)。この際、出力制御部は、学習者の音声認識結果と現在思考単位テキスト(例えば、“I went”)を比較する。ついで、出力制御部は現在思考単位の連結質問(例えば、“どこに”)を出力させる(S483)。   First, the output control unit outputs a translation text (for example, “I did”) of the current thought unit (S481). Then, the output control unit recognizes the learner's voice (S482). At this time, the output control unit compares the voice recognition result of the learner with the current thought unit text (for example, “I went”). Next, the output control unit outputs a connected question (for example, “where”) of the current thought unit (S483).

このように、連結質問が出力されると、出力制御部は現在思考単位を増加させ(S484)、思考単位の出力が終わったかを判断する(S485)。この際、発話学習の思考単位の出力が終わったら、出力制御部は発話学習制御をリターンさせる。仮に、発話学習の思考単位の出力が終わっていないと、出力制御部は学習者の音声を認識する(S486)。この際、出力制御部は学習者の音声認識結果と現在思考単位テキスト(例えば、“to Kimpo airport”)を比較する。   As described above, when the linked question is output, the output control unit increases the current thinking unit (S484), and determines whether the output of the thinking unit is finished (S485). At this time, when the output of the thinking unit of the utterance learning is finished, the output control unit returns the utterance learning control. If the output of the thought unit of speech learning has not been completed, the output control unit recognizes the learner's voice (S486). At this time, the output control unit compares the voice recognition result of the learner with the current thought unit text (for example, “to Kimpo airport”).

続いて、出力制御部、連結質問テキストの累積(例えば、“私は行った(どこに)”)を出力させる(S487)。そして、出力制御部は学習者の音声を認識する(S488)。この際、出力制御部は、学習者の音声認識結果と現在思考単位テキスト(例えば、“I went to Kimpo airport”)を比較する。ついで、出力制御部は、前記現在思考単位の連結質問出力段階S483から繰り返して行う。   Subsequently, the output control unit outputs the accumulation of the linked question texts (for example, “I went (where)”) (S487). Then, the output control unit recognizes the learner's voice (S488). At this time, the output control unit compares the voice recognition result of the learner with the current thought unit text (for example, “I went to Kimpo airport”). Next, the output control unit repeatedly performs the current thought unit connection question output step S483.

図15は図9に示す発話学習制御段階S422のさらにほかの例(発話学習制御6)を示すフローチャートである。ここでは、学習者の音声を入力し、入力された音声が役割者の台詞(文章)に相当するかを判断するようにする発話学習方法を例として説明する。すなわち、学習者は役割者の台詞の文章を音声入力しなければならない。   FIG. 15 is a flowchart showing still another example (utterance learning control 6) of the utterance learning control step S422 shown in FIG. Here, an utterance learning method for inputting a learner's voice and determining whether the inputted voice corresponds to a role person's speech (sentence) will be described as an example. That is, the learner must input the sentence of the role person's speech.

まず、出力制御部は学習者から役割者の台詞を音声で入力してもらう(S491)。そして、入力された音声を認識し(S492)、役割者の台詞と比較する(S493)。前記比較は学習者の音声認識結果と役割者の台詞を構成している思考単位を全て結合したテキストを比較してなる。   First, the output control unit receives a voice of the role person's speech from the learner (S491). Then, the input voice is recognized (S492) and compared with the role person's dialogue (S493). The comparison is made by comparing the speech recognition result of the learner and the text that combines all the thought units constituting the role of the role.

前記比較において、適合すると判断された場合、出力制御部は役割学習を続けて行えるようにリターンし、適合しないと判断される場合は、学習者から音声を再度入力してもらうように制御する(S494)。   In the comparison, if it is determined that it matches, the output control unit returns so that role learning can be continued, and if it is determined that it does not match, control is performed so that the learner inputs the voice again ( S494).

図16は図6に示す読み取り学習制御段階を基本学習式で出力させる例を詳細に示すフローチャートである。   FIG. 16 is a flowchart showing in detail an example in which the reading learning control stage shown in FIG.

同図に示すように、基本学習方法による発話学習が開始されると、送信制御部130又は320はまず現在思考単位のテキストデータを出力させる(S510)。   As shown in the figure, when utterance learning by the basic learning method is started, the transmission control unit 130 or 320 first outputs text data of the current thinking unit (S510).

ついで、送信制御部130又は320は現在思考単位のデータをテキストとして出力するように命令を伝送させた後(S520)、加入者からオーディオデータを受信する(S530)。前記加入者からのオーディオデータは加入者が発音したオーディオ情報が含まれている。   Next, the transmission control unit 130 or 320 transmits an instruction to output the current unit of thought data as text (S520), and then receives audio data from the subscriber (S530). The audio data from the subscriber includes audio information produced by the subscriber.

すると、送信制御部は、前記出力された現在思考単位のオーディオと加入者から受信されたオーディオデータを音声認識し(S540)、現在思考単位テキストと比較し(S550)、適合した発音であるかを判断する(S560)。すなわち、この場合には、受信されたオーディオデータの特徴を抽出(Feature Extraction)して、音声認識(Speech Recognition)することになる。したがって、音声認識が正しく行われていなかった場合には、誤発音と判断する。   Then, the transmission controller recognizes the output audio of the current thinking unit and the audio data received from the subscriber (S540), compares it with the current thinking unit text (S550), and determines whether the pronunciation is suitable. Is determined (S560). That is, in this case, the feature of the received audio data is extracted (Feature Extraction) and speech recognition (Speech Recognition) is performed. Therefore, if the voice recognition is not correctly performed, it is determined that the sound is erroneous.

前記加入者からのオーディオデータが誤発音によるものと判断された場合、送信制御部は、例えば“改めてしなさい”という音声メッセージを出力させた後(S570)、前記現在思考単位のオーディオデータを出力させる段階を再度行う(S520)。   If it is determined that the audio data from the subscriber is due to mispronunciation, the transmission control unit outputs, for example, a voice message “please change” (S570), and then outputs the audio data of the current thinking unit. This step is performed again (S520).

図17は図6に示す読み取り学習制御段階を累積反復学習式で出力させる例を詳細に示すフローチャートである。   FIG. 17 is a flowchart showing in detail an example in which the reading learning control stage shown in FIG.

同図に示すように、累積反復式学習方法による発話学習が開始されると、送信制御部130又は320は最初思考単位から現在思考単位までテキストデータを結合させる(S610)。   As shown in the figure, when utterance learning by the cumulative iterative learning method is started, the transmission control unit 130 or 320 combines text data from the first thinking unit to the current thinking unit (S610).

ついで、送信制御部は、前記のように結合された思考単位テキストデータを伝送させた後(S620)、結合された思考単位データがテキストとして出力されるように命令する(S630)。そして、送信制御部は加入者からオーディオデータを受信する(S640)。前記加入者からのオーディオデータは加入者が発音したオーディオ情報が含まれている。   Next, the transmission control unit transmits the combined thought unit text data as described above (S620), and then instructs the combined thought unit data to be output as text (S630). Then, the transmission control unit receives audio data from the subscriber (S640). The audio data from the subscriber includes audio information produced by the subscriber.

続いて、送信制御部は、加入者から受信されたオーディオデータを音声認識しテキストと比較し(S660)、適合した発音であるかを判断する(S670)。すなわち、この場合には、受信されたオーディオデータの特徴を抽出(Feature Extraction)して、音声認識(Speech Recognition)することになる。したがって、音声認識が正しく行われていなかった場合には、誤発音と判断する。   Subsequently, the transmission control unit recognizes the audio data received from the subscriber and compares it with text (S660), and determines whether the pronunciation is suitable (S670). That is, in this case, the feature of the received audio data is extracted (Feature Extraction) and speech recognition (Speech Recognition) is performed. Therefore, if the voice recognition is not correctly performed, it is determined that the sound is erroneous.

前記加入者からのオーディオデータが誤発音によるものと判断された場合、送信制御部は、例えば“改めてしなさい”という音声メッセージを出力させた後(S680)、前記結合された思考単位のオーディオデータを出力させる段階を再度行う(S630)。   If it is determined that the audio data from the subscriber is due to mispronunciation, the transmission control unit, for example, outputs a voice message “please change” (S680), and then the audio data of the combined thought unit Is again performed (S630).

図17に示す実施例においては、出力された思考単位の音声出力に従って発話学習を進ませるようにしているが、思考単位の音声を出力させなく、思考単位のテキストのみを表示させた後、テキストを読み取るようにして読み取り学習を進ませることができる。このような読み取り学習を進ませる場合には、まず、段階S610で学習させようとするテキストを全て結合させた後(S610)、思考単位テキストを伝送させる(S620)。   In the embodiment shown in FIG. 17, utterance learning is advanced in accordance with the output of the output of the thought unit, but the text of the thought unit is not displayed and the text of the thought unit is displayed. Reading learning can be advanced as if. In order to advance such reading learning, first, all the texts to be learned in step S610 are combined (S610), and then the thought unit text is transmitted (S620).

ついで、送信制御部は、思考単位の音声出力が行われないように、段階S630を行わなく、加入者からオーディオデータを受信する(S640)。このように、加入者からオーディオデータが受信されると、音声認識した後(S650)、伝送された思考単位テキストと比較し、読み取りが適合するかを判断する(S670)。   Next, the transmission control unit receives the audio data from the subscriber without performing step S630 so that the sound output of the unit of thought is not performed (S640). As described above, when audio data is received from the subscriber, after voice recognition (S650), it is compared with the transmitted thought unit text to determine whether the reading is appropriate (S670).

図18は図6に示す書き取り学習制御段階を基本学習式で出力させる例を詳細に示すフローチャートである。   FIG. 18 is a flowchart showing in detail an example in which the writing learning control stage shown in FIG.

同図に示すように、基本学習方法による書き取り学習が始まると、送信制御部は現在思考単位のテキストデータを伝送させる(S710)。そして、現在思考単位を音声出力するように命令する(S720)。   As shown in the figure, when writing learning by the basic learning method is started, the transmission control unit transmits text data of the current thinking unit (S710). Then, an instruction is given to output the current thinking unit as a voice (S720).

ついで、送信制御部は、加入者からテキストデータを受信した後(S730)、現在思考単位のテキストデータと前記加入者からのテキストデータを比較する(S740)。この際、送信制御部は、前記テキストの比較結果が一致する場合は、加入者が書き取りを正しく行ったと判断し、一致していない場合は、書き取りを誤ったと判断する(S570)。   Next, after receiving the text data from the subscriber (S730), the transmission control unit compares the text data of the current thinking unit with the text data from the subscriber (S740). At this time, if the text comparison result matches, the transmission control unit determines that the subscriber has correctly written, and if not, determines that the writing has been incorrect (S570).

前記判断において、書き取りを誤って行ったと判断された場合、送信制御部は、例えば、“改めて入力しなさい”というメッセージを出力させた後(S670)、前記現在思考単位の音声を出力させる段階を再度行う(S720)。   If it is determined in the above determination that the writing has been mistakenly performed, the transmission control unit, for example, outputs a message “Please input again” (S670), and then outputs a sound of the current thought unit. Perform again (S720).

仮に、前記加入者が書き取りを正しく行ったと判断された場合、送信制御部は、加入者が確認できるように、現在思考単位のテキストデータを出力するように命令する(S770)。   If it is determined that the subscriber has correctly written, the transmission control unit instructs the subscriber to output the text data of the current thought unit so that the subscriber can confirm (S770).

図19は図6に示す書き取り学習制御段階を累積反復学習式で出力させる例を詳細に示すフローチャートである。   FIG. 19 is a flowchart showing in detail an example in which the writing learning control stage shown in FIG.

同図に示すように、累積反復学習式による書き取り学習が開始されると、送信制御部は最初思考単位から現在思考単位までのテキストデータを結合させる(S810)。   As shown in the figure, when writing learning by the cumulative iterative learning formula is started, the transmission control unit combines text data from the first thinking unit to the current thinking unit (S810).

ついで、送信制御部は、前記結合された思考単位オーディオデータを伝送させ(S820)、結合された思考単位が音声出力されるように命令する(S830)。そして、加入者からテキストデータを受信する(S840)。また、送信制御部は、前記結合された現在思考単位のテキストデータと加入者からのテキストデータを比較し(S850)、書き取りを正しく行ったかを判断する(S860)。すなわち、送信制御部は、前記テキストの比較結果が一致する場合には加入者が書き取りを正しく行ったと判断し、一致していない場合には書き取りを誤って行ったと判断する。   Next, the transmission control unit transmits the combined thought unit audio data (S820), and instructs the combined thought unit to output a voice (S830). Then, text data is received from the subscriber (S840). In addition, the transmission control unit compares the combined text data of the current thought unit with the text data from the subscriber (S850), and determines whether the writing has been correctly performed (S860). That is, the transmission control unit determines that the subscriber has correctly performed writing when the text comparison results match, and determines that the writing has been performed incorrectly when they do not match.

前記判断において、書き取りを誤って行ったと判断された場合、送信制御部は、例えば、“改めて入力しなさい”というメッセージを出力させた後(S870)、前記結合された思考単位の音声を出力させる段階を再度行う(S830)。   If it is determined in the above determination that the writing has been mistakenly performed, the transmission control unit, for example, outputs a message “Please input again” (S870), and then outputs the voice of the combined thought unit. The step is performed again (S830).

仮に、前記加入者が書き取りを正しく行ったと判断された場合、送信制御部は加入者が確認できるように結合された思考単位のテキストデータを出力させる(S880)。   If it is determined that the subscriber has correctly written, the transmission control unit outputs text data of thought units combined so that the subscriber can confirm (S880).

前記実施例においては、本発明を英語学習を進ませる場合を例として説明したが、文章を思考単位に分けることができれば、言語に関係なく全て適用できる。また、前記実施例においては、加入者に思考単位と連結質問をした後、加入者からオーディオ又はテキストデータを受信して適合するかを判断するように攻勢したが、加入者に多数の絵又はテキストを提供した後、選択するようにして、適合するかを判断するように構成してもよい。すなわち、この場合には、一つの連結質問に適した多数の思考単位と適しない多数の思考単位を絵又はテキストとして加入者に提供した後、加入者の選択が適合した思考単位に含まれているかを判断するとよい。この際、絵である場合は、絵とテキストを対応させて判断するとよい。
In the above embodiment, the present invention has been described by taking the case where English learning is advanced as an example. However, as long as the sentence can be divided into thought units, all can be applied regardless of the language. Also, in the above embodiment, after the subscriber is asked a connection question with the unit of thought, it is attacked to receive audio or text data from the subscriber to determine whether it fits. After providing the text, it may be configured to select and determine whether it fits. In other words, in this case, after providing the subscriber with a large number of thought units suitable for one linked question and a large number of inappropriate thought units as pictures or texts, the subscriber 's choice is included in the suitable thought unit. It is good to judge whether At this time, if it is a picture, it is preferable to make a judgment by associating the picture with the text.

一方、前記では学習資料を実時間でインターネットを介して伝送させながら学習を進ませるものを例として説明したが、学習者が選択した学習資料を全て学習者のターミナルに伝送させた後、学習者のターミナル(加入者装置)で進むようにしてもよい。さらに、このような学習方法は、情報提供者装置から提供される学習資料データベースの学習資料をCD、DVD、テープのような記録媒体に格納させた後、学習者(加入者)に提供し、学習者のコンピュータで実行されるようにすることができる。また、前記本発明の実施例においては、学習者の学習効果を高めるため学習者の音声を認識するように構成したが、音声認識エンジンが備えられていない場合には、学習させようとする文章を思考単位と連結質問に基づいて音声を出力させるようにしてもよい。したがって、本発明の実施例による思考単位及び連結質問を用いる言語教育はオンラインとオフラインのいずれでも可能である。   On the other hand, in the above description, the learning material is transmitted through the Internet in real time as an example, but the learning material is transmitted to the learner's terminal after all the learning material selected by the learner is transmitted. The terminal (subscriber device) may be used. Further, such a learning method stores the learning material in the learning material database provided from the information provider device in a recording medium such as a CD, a DVD, and a tape, and then provides it to the learner (subscriber). It can be executed on the learner's computer. In the embodiment of the present invention, the voice of the learner is recognized in order to enhance the learning effect of the learner. However, if the voice recognition engine is not provided, the sentence to be learned You may make it output a sound based on a thought unit and a connection question. Therefore, language education using thought units and linked questions according to an embodiment of the present invention can be performed online or offline.

このように、本発明が属する技術分野の当業者は、本発明がその技術的思想あるいは必須の特徴を変更しなくほかの具体的な形態に実施できることが理解できるであろう。したがって、前述した実施例は全ての面で例示的なもので、限定的なものではないと理解すべきである。本発明の範囲は前記詳細な説明よりは特許請求範囲により決められ、特許請求範囲の意味及び範囲と等価概念から導出される全ての変更及び修正形態が本発明の範囲に含まれるものと解釈されなければならない。   As described above, those skilled in the art to which the present invention pertains will understand that the present invention can be implemented in other specific forms without changing the technical idea or essential features thereof. Accordingly, it should be understood that the above-described embodiments are illustrative in all aspects and not limiting. The scope of the present invention is determined by the scope of the claims rather than the foregoing detailed description, and all changes and modifications derived from the meaning and scope of the claims and the equivalent concepts are construed as being included in the scope of the present invention. There must be.

110 学習資料格納部
111 学習資料データベース
113 学習資料抽出制御部
115 思考単位テキストバッファ
116 動映像データバッファ
117 連結質問テキストバッファ
120 認識部
121 第1比較部
122 音声認識部
130 送信制御部
140 会員管理部
141 会員データベース
142 会員認識部
151 受信テキストバッファ
152 受信オーディオバッファ
153 受信制御部
160 ネットワークインターフェース
170 インターネット
110 learning material storage unit 111 learning material database 113 learning material extraction control unit 115 thought unit text buffer 116 moving picture data buffer 117 connected question text buffer 120 recognition unit 121 first comparison unit 122 voice recognition unit 130 transmission control unit 140 member management unit 141 Member Database 142 Member Recognition Unit 151 Reception Text Buffer 152 Reception Audio Buffer 153 Reception Control Unit 160 Network Interface 170 Internet

Claims (1)

学習提供サーバからネットワークを介して加入者のターミナルに言語学習プログラムを提供して、当該言語学習プログラムの手順に従って加入者に言語教育を行わせる学習資料を前記ターミナルに送信する送信制御部を用いた言語教育方法において、
それぞれの文章に対して各文章を構成する一つの意味を構成する単語の集合を思考単位とし、各思考単位で次の思考単位を導出するための質問を連結質問とするとき、前記言語学習プログラムを加入者の学習水準に応じて、それぞれの文章を語順に従って複数の思考単位と前記思考単位に対応する連結質問に分けて前記思考単位のテキストに対応する音声データとともに前記学習資料として予め学習資料データベースに格納しておき、
前記送信制御部は、
前記ネットワークを介して接続された加入者のターミナルから入力された加入者の現時点での学習水準に対応する現在学習資料コードと学習プログラム進行方法とを受け付ける第一ステップと、
前記第一ステップで受け付けた現在学習資料コードに対応付けられた学習資料を前記学習資料データベースから抽出する第二ステップと、
前記第二ステップで抽出した学習資料を、前記第一ステップで受け付けた学習プログラム進行方法に応じて前記加入者のターミナルに出力する第三ステップと含み、
前記第一ステップは、
受け付けた学習プログラム進行方法が、基本進行方法の学習プログラム進行方法であるか累積反復式進行方法の学習プログラム進行方法であるかを特定する第四ステップと、
受け付けた学習プログラム進行方法によって進行する学習方法として、聞き取りを行う聞き取り学習方法か、発話を行う発話学習方法か、書き込みを行う書き込み学習方法か、又は読み取りを行う読み取り学習方法かを特定する第五ステップとを含み、
前記第三ステップは、
前記第五ステップにおいて、学習方法として、発話を行う発話学習方法が特定された場合、
前記学習資料データベースから、思考単位のテキストに対応する音声データを抽出して、前記加入者のターミナルに出力する第六ステップと、
加入者のターミナルからオーディオデータを受信し、音声を認識する第七ステップと、
前記第七ステップにおいて、認識された音声の発音が、前記第六ステップにおいて、加入者のターミナルに出力した音声データから得られる発音と適合するかを判断する第八ステップと、
前記第八ステップにおいて、発音が適合していると判断した場合、前記第六ステップにおいて出力された前記思考単位のテキストに対応する音声データと連結質問を前記加入者ターミナルに出力する第九ステップと、
前記加入者ターミナルからオーディオデータを受信し、音声を認識する第十ステップと、
前記第十ステップにおいて、認識された音声の発音が、前記加入者のターミナルに出力された前記思考単位の翻訳テキストと連結質問から得られる発音と適合するかを判断する第十一ステップとを含み、
前記第八ステップにおいて、発音が適合しないと判断した場合、前記第六ステップに戻って、再度思考単位のテキストに対応する音声データを前記加入者のターミナルに出力することを特徴とする思考単位及び連結質問を用いる言語教育方法。
Using a transmission control unit that provides a language learning program from a learning providing server to a subscriber's terminal via a network, and sends learning materials to the terminal to allow the subscriber to perform language education according to the procedure of the language learning program In language teaching methods,
When the set of words constituting one meaning for each sentence is a thinking unit, and the question for deriving the next thinking unit in each thinking unit is a connected question, the language learning program In accordance with the learning level of the subscriber, each sentence is divided into a plurality of thought units and linked questions corresponding to the thought units according to the word order, and the learning data in advance as the learning material together with the voice data corresponding to the text of the thought unit Stored in the database,
The transmission control unit
A first step of accepting a current learning material code and a learning program progression method corresponding to the current learning level of the subscriber input from the terminal of the subscriber connected via the network;
A second step of extracting the learning material associated with the current learning material code received in the first step from the learning material database;
The learning material extracted in the second step includes a third step of outputting to the subscriber's terminal according to the learning program progress method accepted in the first step,
The first step includes
A fourth step of identifying whether the accepted learning program progression method is a learning program progression method of a basic progression method or a learning program progression method of a cumulative iterative progression method;
A fifth method for specifying whether the listening learning method for listening, the utterance learning method for utterance, the writing learning method for writing, or the reading learning method for reading is used as the learning method to proceed according to the accepted learning program progression method. Including steps,
The third step is
In the fifth step, when an utterance learning method for uttering is specified as a learning method,
A sixth step of extracting speech data corresponding to the text of the thought unit from the learning material database and outputting it to the subscriber terminal;
A seventh step of receiving audio data from the subscriber's terminal and recognizing the voice;
An eighth step of determining whether the recognized pronunciation of the voice in the seventh step matches the pronunciation obtained from the voice data output to the subscriber's terminal in the sixth step;
In the eighth step, if it is determined that the pronunciation is suitable, a ninth step of outputting voice data and a linked question corresponding to the text of the thought unit output in the sixth step to the terminal of the subscriber When,
Receiving audio data from the subscriber 's terminal and recognizing speech;
The eleventh step of determining whether the recognized pronunciation of the voice in the tenth step matches the translated text of the unit of thought output to the terminal of the subscriber and the pronunciation obtained from a linked question; ,
In the eighth step, when it is determined that the pronunciation is not suitable, the thought unit characterized in that it returns to the sixth step and outputs voice data corresponding to the text of the thought unit to the terminal of the subscriber again. Language teaching method using linked questions.
JP2009102219A 2001-12-12 2009-04-20 Language teaching method using thought units and connected questions Expired - Lifetime JP5230515B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR2001-78699 2001-12-12
KR1020010078699A KR20020041784A (en) 2001-12-12 2001-12-12 System and Method for Language Education Using Thought Unit and Relation Question
KR2002-43623 2002-07-24
KR10-2002-0043623A KR100392890B1 (en) 2001-12-12 2002-07-24 System and Method for Language Education Using Thought Unit and Relation Question, and Storage Media for Language Education

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002358354A Division JP4593069B2 (en) 2001-12-12 2002-12-10 Language education system using thought units and connected questions

Publications (2)

Publication Number Publication Date
JP2009163266A JP2009163266A (en) 2009-07-23
JP5230515B2 true JP5230515B2 (en) 2013-07-10

Family

ID=19716959

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009102218A Expired - Fee Related JP4845992B2 (en) 2001-12-12 2009-04-20 Language teaching method using thought units and connected questions
JP2009102219A Expired - Lifetime JP5230515B2 (en) 2001-12-12 2009-04-20 Language teaching method using thought units and connected questions

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2009102218A Expired - Fee Related JP4845992B2 (en) 2001-12-12 2009-04-20 Language teaching method using thought units and connected questions

Country Status (3)

Country Link
JP (2) JP4845992B2 (en)
KR (2) KR20020041784A (en)
CN (2) CN101702278A (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040022911A (en) * 2002-09-10 2004-03-18 강은경 English lecture system using an inage
KR100586860B1 (en) * 2003-10-15 2006-06-07 주식회사 에이아이코퍼스 Language Education System and Language Education Method based on Corpus Retrieval System, which use the functions of questions and answers
KR101313268B1 (en) * 2011-10-12 2013-09-30 정철 English study material, for enhancing english speaking ability, using english sentence construction theory
CN103198726A (en) * 2013-04-23 2013-07-10 李华 English learning equipment
CN104835366B (en) * 2015-05-07 2018-11-13 肖思俐 A kind of Chinese studying systems
KR101668581B1 (en) * 2016-04-29 2016-10-21 박정선 Sentence Build Up English Studying System, English Studying Method Using the Same and Teaching Method Thereof
KR102574916B1 (en) 2023-05-30 2023-09-06 주식회사 골드앤에스 English Learning Method using English Learning Materials based on Communication-centered Interaction

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH065451B2 (en) * 1986-12-22 1994-01-19 株式会社河合楽器製作所 Pronunciation training device
JPH01157376A (en) * 1987-12-11 1989-06-20 Norin Suisan Gijutsu Joho Kyokai Culture medium of protoplast derived from higher plant and culture thereof
JPH01157376U (en) * 1988-04-20 1989-10-30
US5810599A (en) * 1994-01-26 1998-09-22 E-Systems, Inc. Interactive audio-visual foreign language skills maintenance system and method
JPH10143061A (en) * 1996-11-14 1998-05-29 Nippon Bairingaru Media Kk Foreign language learning device
JPH1138863A (en) * 1997-07-17 1999-02-12 Fuji Xerox Co Ltd Language information apparatus
JPH11282826A (en) * 1998-03-31 1999-10-15 Nippon Telegr & Teleph Corp <Ntt> Electronic education system using internet
US6077085A (en) * 1998-05-19 2000-06-20 Intellectual Reserve, Inc. Technology assisted learning
JP2001022265A (en) * 1999-07-06 2001-01-26 Alc Press Inc Language study system using digital movie software
EP1139318A4 (en) * 1999-09-27 2002-11-20 Kojima Co Ltd Pronunciation evaluation system
JP2001222212A (en) * 2000-02-09 2001-08-17 Shigeru Taniguchi Subtitle changeover type video software for learning language
JP2001337595A (en) * 2000-05-25 2001-12-07 Hideo Ando Language learning support program and constituting method for the program

Also Published As

Publication number Publication date
KR20020041784A (en) 2002-06-03
JP2009163265A (en) 2009-07-23
CN101702278A (en) 2010-05-05
JP4845992B2 (en) 2011-12-28
JP2009163266A (en) 2009-07-23
KR20020083956A (en) 2002-11-04
CN101702279A (en) 2010-05-05
KR100392890B1 (en) 2003-07-28

Similar Documents

Publication Publication Date Title
JP4593069B2 (en) Language education system using thought units and connected questions
JP5230515B2 (en) Language teaching method using thought units and connected questions
Gambier The position of audiovisual translation studies
US20140036023A1 (en) Conversational video experience
US20150006171A1 (en) Method and Apparatus for Conducting Synthesized, Semi-Scripted, Improvisational Conversations
US10741089B2 (en) Interactive immersion system for movies, television, animation, music videos, language training, entertainment, video games and social networking
CN108711423A (en) Intelligent sound interacts implementation method, device, computer equipment and storage medium
JPH07295466A (en) English conversation learning method and learning apparatus
JPH0883041A (en) Method and system for education based on interactive visual and hearing presentation system
Minutella (Re) Creating Language Identities in Animated Films: Dubbing Linguistic Variation
JP5137031B2 (en) Dialogue speech creation device, utterance speech recording device, and computer program
JPH11109991A (en) Man machine interface system
CN112185340B (en) Speech synthesis method, speech synthesis device, storage medium and electronic equipment
JP2003228279A (en) Language learning apparatus using voice recognition, language learning method and storage medium for the same
KR20190130791A (en) Apparatus for interactive language learning using foreign Video contents
CN114170856B (en) Machine-implemented hearing training method, apparatus, and readable storage medium
JP2001022265A (en) Language study system using digital movie software
KR20030065259A (en) Apparatus and method of learnning languages by sound recognition and sotring media of it
KR101920653B1 (en) Method and program for edcating language by making comparison sound
KR100593590B1 (en) Automatic Content Generation Method and Language Learning Method
JP4052561B2 (en) VIDEO Attached Audio Data Recording Method, VIDEO Attached Audio Data Recording Device, and VIDEO Attached Audio Data Recording Program
US11501752B2 (en) Enhanced reproduction of speech on a computing system
JP3816901B2 (en) Stream data editing method, editing system, and program
WO2023167212A1 (en) Computer program, information processing method, and information processing device
JP3146823U (en) Electronics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130319

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250