JP2019045575A - Language learning device, language learning method, and language learning program - Google Patents

Language learning device, language learning method, and language learning program Download PDF

Info

Publication number
JP2019045575A
JP2019045575A JP2017165973A JP2017165973A JP2019045575A JP 2019045575 A JP2019045575 A JP 2019045575A JP 2017165973 A JP2017165973 A JP 2017165973A JP 2017165973 A JP2017165973 A JP 2017165973A JP 2019045575 A JP2019045575 A JP 2019045575A
Authority
JP
Japan
Prior art keywords
recording
voice
viewing
image
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017165973A
Other languages
Japanese (ja)
Other versions
JP7118389B2 (en
Inventor
り香 富野
Rika Tomino
り香 富野
永和 富野
Eiwa Tomino
永和 富野
知大 山形
Tomohiro Yamagata
知大 山形
隆弘 山之内
Takahiro Yamanouchi
隆弘 山之内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rekids
Rekids Inc
Original Assignee
Rekids
Rekids Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rekids, Rekids Inc filed Critical Rekids
Priority to JP2017165973A priority Critical patent/JP7118389B2/en
Publication of JP2019045575A publication Critical patent/JP2019045575A/en
Application granted granted Critical
Publication of JP7118389B2 publication Critical patent/JP7118389B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a language learning device capable of improving the learning effect of English even for Japanese.SOLUTION: This device executes a listening step in which the image including the English text and the English voice are output in a plurality of scenes, and thereafter executes a record step consisting of a plurality of scenes. At this time, the listening step outputs the images and texts which constitute one scene, and repeats the output of the images and the voice in each of the plurality of viewing scenes each of which is constituted by different English sentences different from each other in the same grammar. In the recording step, the images and texts of one recording scene are output, and the voice of the user who pronounces the English corresponding to the image and the voice is recorded and played back. At this time, the recording step repeats the output of the image and the voice, the collection of the voice of the user, and the recording and the playback of each scene composed of different English texts in the same grammar.SELECTED DRAWING: Figure 1

Description

本発明は、言語学習装置及び言語学習方法並びに言語学習用プログラムの技術分野に属し、より詳細には、日本人が日本語以外の他の言語を学習するために用いられる言語学習装置及び言語学習方法並びに当該言語学習装置用のプログラムの技術分野に属する。   The present invention belongs to the technical fields of a language learning device, a language learning method, and a language learning program, and more specifically, a language learning device and a language learning used for Japanese to learn other languages other than Japanese. The method belongs to the technical field of a program for the language learning device.

近年、日本人に対する実用的な英語教育の必要性は益々高まっており、これに対応して、小学生等の低年齢層に対する実用的な英語教育の必要性も指摘されている。また、学校等での集団による英語教育の他に、自身が操作するパーソナルコンピュータやタブレット端末を用いて個人的に英語教育を受けることも多く行われるようになった。なお以下の説明において、パーソナルコンピュータやタブレット端末を、単に「PC(Personal Computer)等」と称する。このような個人的な英語教育は、当該教育を受ける個人の上達度や進度に応じて難易度を調整できる等、集団による英語教育では得られない効果が期待できる。   In recent years, the need for practical English education for Japanese people has been increasing, and in response to this, the need for practical English education for lower age groups such as primary school children has been pointed out. In addition to English language education by groups at schools etc., English language education has often been performed personally using personal computers and tablet terminals operated by the user. In the following description, a personal computer or a tablet terminal is simply referred to as “PC (Personal Computer) or the like”. Such personal English education can be expected to have effects that can not be obtained by group English education, such as being able to adjust the degree of difficulty according to the degree of progress and progress of the individual who receives the education.

そして、上記PC等を用いた英語教育に関する先行技術文献としては、例えば下記特許文献1が挙げられる。この特許文献1に記載されている技術では、言語教育用システムにおいて、第1視点に対応するイベントの第1記述を提示するステップと、第2視点に対応するイベントの第2記述を提示するステップと、を含み、イベントの第1記述とイベントの第2記述とが共通の言語であるように構成されている。   And as a prior art document about English education using the above-mentioned PC etc., the following patent documents 1 are mentioned, for example. In the technology described in Patent Document 1, in the system for language education, a step of presenting a first description of an event corresponding to a first viewpoint and a step of presenting a second description of an event corresponding to a second viewpoint And the first description of the event and the second description of the event are configured to be a common language.

特開2011−197691号公報JP, 2011-197691, A

しかしながら、日本人を対象とした英語教育に対して上記特許文献1に記載されている技術を用いた場合、例えば高度過ぎたり、或いは飽き易かったりといった問題点があり、実効のある英語教育は期待できないという問題点がある。   However, when using the technology described in Patent Document 1 for English language education for Japanese, there are problems such as being too advanced or easy to get bored, and effective English language education is expected There is a problem that it can not do.

そこで本発明は、上記の問題点に鑑みて為されたもので、その課題の一例は、日本人であっても、学習対象たる言語(例えば英語)の学習効果(練習効果)を向上させることが可能な言語学習装置及び言語学習方法並びに当該言語学習装置用のプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an example of the problem is to improve the learning effect (practicing effect) of a language (for example, English) to be learned even if it is Japanese. It is an object of the present invention to provide a language learning device and a language learning method that can be

上記の課題を解決するために、請求項1に記載の発明は、学習対象たる言語により綴られた文章を含む画像と、当該文章を発音した音声と、を、複数の視聴シーンとして出力する視聴ステップを実行するリスニングステップ処理部等の視聴ステップ実行手段と、前記視聴ステップの後に、複数の録音シーンからなる録音ステップを実行するレコードステップ処理部等の録音ステップ実行手段と、を備える言語学習装置であって、前記視聴ステップ実行手段は、一の前記視聴シーンを構成する前記画像及び前記音声である視聴画像及び視聴音声を出力するディスプレイ及びスピーカ等の視聴出力手段と、前記視聴画像及び前記視聴音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記視聴シーンごとに繰り返すように前記視聴出力手段を制御するリスニングステップ処理部等の視聴制御手段と、を備え、前記録音ステップ実行手段は、一の前記録音シーンを構成する前記画像及び前記音声である録音画像及び録音音声を出力するディスプレイ及びスピーカ等の録音出力手段と、前記録音画像及び前記録音音声に対応する前記文章を発音した学習者の音声を集音して録音するレコードステップ処理部等の録音手段と、前記録音した学習者の音声を出力するスピーカ等の学習者音声出力手段と、前記録音画像及び前記録音音声の出力、前記学習者の音声の集音及び録音、及び前記学習者の音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記録音シーンごとに繰り返すように、前記録音出力手段、前記録音手段、及び前記学習者音声出力手段を制御するレコードステップ処理部等の録音制御手段と、を備える。   In order to solve the above-mentioned problems, the invention according to claim 1 is a viewing method which outputs an image including a sentence spelled in a language to be learned and a voice uttering the sentence as a plurality of viewing scenes. Language learning apparatus comprising: viewing step execution means such as a listening step processing unit that executes steps; and recording step execution means such as a record step processing unit that executes a recording step consisting of a plurality of recording scenes after the viewing step. The viewing step execution means is a viewing output means such as a display and a speaker for outputting a viewing image and a viewing voice as the image and the audio constituting the one viewing scene, the viewing image and the viewing; The output of voice is repeated for each of the plurality of viewing scenes respectively configured by the different sentences of the same grammar. Viewing control means such as a listening step processing unit for controlling the viewing output means, and the recording step execution means, the recording image and the recording voice which are the image and the sound constituting the one recording scene Recording output means such as a display and a speaker to output, recording means such as a record step processing unit for collecting and recording voice of a learner who pronounced the recorded image and the sentence corresponding to the recorded voice, and the recording The same as the output of the recorded image and the recorded voice, the collection and recording of the voice of the learner, and the output of the voice of the learner. The recording output means, the recording means, and the recording means are repeated for each of a plurality of the recording scenes respectively composed of the sentences different from each other in the grammar. Comprising a recording control means such as a record step processing unit that controls the learner voice output means.

上記の課題を解決するために、請求項20に記載の発明は、学習対象たる言語により綴られた文章を含む画像と、当該文章を発音した音声と、を、複数の視聴シーンとして出力する視聴ステップを実行する視聴ステップ実行手段であって、ディスプレイ及びスピーカ等の視聴出力手段と、リスニングステップ処理部等の視聴制御手段と、を備えるリスニングステップ処理部等の視聴ステップ実行手段と、前記視聴ステップの後に、複数の録音シーンからなる録音ステップを実行する録音ステップ実行手段であって、スピーカ等の録音出力手段と、レコードステップ処理部等の録音手段と、スピーカ等の学習者音声出力手段と、録音制御手段と、を備えるレコードステップ処理部等の録音ステップ実行手段と、を備える言語学習装置において実行される言語学習方法であって、前記視聴ステップは、一の前記視聴シーンを構成する前記画像及び前記音声である視聴画像及び視聴音声を前記視聴出力手段により出力する視聴出力工程と、前記視聴画像及び前記視聴音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記視聴シーンごとに繰り返すように、前記視聴制御手段により前記視聴出力手段を制御する視聴制御工程と、を含み、前記録音ステップは、一の前記録音シーンを構成する前記画像及び前記音声である録音画像及び録音音声を前記録音出力手段により出力する録音出力工程と、前記録音画像及び前記録音音声に対応する前記文章を発音した学習者の音声を前記録音手段により集音して録音する録音工程と、前記録音した学習者の音声を前記学習者音声出力手段により出力する学習者音声出力工程と、前記録音画像及び前記録音音声の出力、前記学習者の音声の集音及び録音、及び前記学習者の音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記録音シーンごとに繰り返すように、前記録音出力手段、前記録音手段、及び前記学習者音声出力手段を前記録音制御手段により制御する録音制御工程と、を含む。   In order to solve the above-mentioned problems, the invention according to claim 20 is a viewing method which outputs an image including a sentence spelled in a language to be learned and a voice uttering the sentence as a plurality of viewing scenes. Viewing step execution means such as a listening step processing unit including viewing step execution means for executing steps, including viewing output means such as a display and a speaker, and viewing control means such as a listening step processing portion; Recording step executing means for executing a recording step consisting of a plurality of recording scenes, the recording output means such as a speaker, the recording means such as a record step processor, and the learner voice output means such as a speaker; Recording control means, and recording step execution means such as a recording step processing unit; A language learning method, wherein the viewing step includes a viewing output step of outputting, by the viewing output means, the viewing image and the viewing audio which are the image and the audio constituting the one viewing scene, and the viewing image And a viewing control step of controlling the viewing output means by the viewing control means so that the output of the viewing sound is repeated for each of a plurality of the viewing scenes respectively composed of the different sentences of the same grammar. In the recording step, the recording step corresponds to the recording output step of outputting the recording image and the recording voice which are the image and the voice constituting the one recording scene and the recording output means, and the recording image and the recording voice. A recording step of collecting and recording the voice of the learner who pronounced the sentence by the recording means; and the voice of the learner who has recorded the voice The learner voice output step output by the learner voice output means, the output of the recorded image and the recorded voice, the collection and recording of the learner's voice, and the output of the learner's voice Recording control step of controlling the recording output means, the recording means, and the learner's voice output means by the recording control means so as to repeat for each of a plurality of the recording scenes respectively composed of different sentences. Including.

上記の課題を解決するために、請求項21に記載の発明は、言語学習装置に含まれるコンピュータを、学習対象たる言語により綴られた文章を含む画像と、当該文章を発音した音声と、を、複数の視聴シーンとして出力する視聴ステップを実行する視聴ステップ実行手段、及び、前記視聴ステップの後に、複数の録音シーンからなる録音ステップを実行する録音ステップ実行手段、をとして機能させる言語学習用プログラムであって、前記視聴ステップ実行手段として機能する前記コンピュータを、一の前記視聴シーンを構成する前記画像及び前記音声である視聴画像及び視聴音声を出力する視聴出力手段、及び、前記視聴画像及び前記視聴音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記視聴シーンごとに繰り返すように前記視聴出力手段を制御する視聴制御手段、として機能させ、前記録音ステップ実行手段として機能する前記コンピュータを、一の前記録音シーンを構成する前記画像及び前記音声である録音画像及び録音音声を出力する録音出力手段、前記録音画像及び前記録音音声に対応する前記文章を発音した学習者の音声を集音して録音する録音手段、前記録音した学習者の音声を出力する学習者音声出力手段、及び、前記録音画像及び前記録音音声の出力、前記学習者の音声の集音及び録音、及び前記学習者の音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記録音シーンごとに繰り返すように、前記録音出力手段、前記録音手段、及び前記学習者音声出力手段を制御する録音制御手段、として機能させる。   In order to solve the above-mentioned problems, the invention according to claim 21 comprises a computer included in a language learning device, an image including a sentence spelled in a language to be learned, and a voice uttering the sentence A language learning program that causes a viewing step execution unit that executes a viewing step to output as a plurality of viewing scenes, and a recording step execution unit that executes a recording step consisting of a plurality of recording scenes after the viewing step. A viewing output means for outputting the viewing image and the viewing audio that are the image and the audio that constitute one viewing scene, the computer functioning as the viewing step execution means; The output of the viewing audio is a plurality of the viewing scenes each composed of the different sentences of the same grammar. Function as the view control means for controlling the view output means to repeat the above, and the computer functioning as the recording step execution means, the recorded image and the sound which are the image and the sound constituting the one recording scene Recording output means for outputting a voice, recording means for collecting and recording the voice of a learner who pronounces the recorded image and the sentence corresponding to the recorded voice, learner voice for outputting the voice of the recorded learner A plurality of output means, and outputs of the recorded image and the recorded voice, collection and recording of the learner's voice, and output of the learner's voice by the sentences having the same grammar but different from one another Recording control means for controlling the recording output means, the recording means, and the learner voice output means so as to repeat for each of the recording scenes of To function.

請求項1、請求項20又は請求項21のいずれか一項に記載の発明によれば、学習対象たる言語により綴られた文章を含む画像と、当該文章を発音した音声と、を、複数の視聴シーンとして出力する視聴ステップを実行し、その後に、複数の録音シーンからなる録音ステップを実行する。このとき、視聴ステップとして、一の視聴シーンを構成する視聴画像及び視聴音声を出力することが、同一文法の相互に異なる文章によりそれぞれ構成される複数の視聴シーンとして繰り返される。一方録音ステップとして、一の録音シーンを構成する録音画像及び録音音声を出力し、録音画像及び録音音声に対応する文章を発音した学習者の音声を集音して録音し、録音した学習者の音声を出力することが、同一文法の相互に異なる文章によりそれぞれ構成される複数の録音シーンごとに繰り返される。よって、視聴ステップと録音ステップとが、同一の文法の異なる文章により構成されるいわゆるパターンプラクティスとして実行されることで、学習対象たる言語の学習効果(練習効果)を向上させることができる。   According to the invention described in any one of claims 1, 20 or 21, an image including a sentence spelled in a language to be learned and a plurality of sounds uttering the sentence are generated. A viewing step for outputting as a viewing scene is executed, and then a recording step consisting of a plurality of recording scenes is executed. At this time, as a viewing step, outputting a viewing image and a viewing sound that constitute one viewing scene is repeated as a plurality of viewing scenes each composed of different sentences of the same grammar. On the other hand, in the recording step, the recording image and the recording voice constituting one recording scene are output, and the voice of the learner who pronounces the recording image and the sentence corresponding to the recording voice is collected and recorded, Outputting the voice is repeated for each of a plurality of recording scenes each composed of mutually different sentences of the same grammar. Therefore, the learning effect (practice effect) of the language to be learned can be improved by executing the viewing step and the recording step as so-called pattern practice configured by different sentences of the same grammar.

上記の課題を解決するために、請求項2に記載の発明は、請求項1に記載の言語学習装置において、前記録音手段による集音及び録音を開始する際に操作される操作部等の操作手段を更に備え、前記録音手段は、前記操作手段を用いた操作が実行された場合に、前記集音及び前記録音を行うように構成される。   In order to solve the above problems, the invention according to claim 2 is the language learning device according to claim 1, wherein the operation of the operation unit or the like operated when sound collection and recording are started by the recording means. And a recording unit configured to perform the sound collection and the recording when the operation using the operation unit is performed.

請求項2に記載の発明によれば、請求項1に記載の発明の作用に加えて、録音手段による集音及び録音を開始する際に操作される操作手段を用いた当該操作が実行された場合に、学習者の音声の集音及び録音を行う。よって、学習者の任意のタイミングで発音及び録音を行うことができるので、余裕を持ってその言語を学習することができる。   According to the second aspect of the invention, in addition to the function of the invention of the first aspect, the operation using the operation means operated at the time of starting sound collection and recording by the recording means is performed. If necessary, perform voice collection and recording of the learner's voice. Therefore, since pronunciation and recording can be performed at an arbitrary timing of the learner, the language can be learned with a margin.

上記の課題を解決するために、請求項3に記載の発明は、請求項1又は請求項2に記載の言語学習装置において、前記視聴制御手段による複数の前記視聴シーン分の繰り返しが終了したタイミングにおいて、前記視聴ステップに対応する前記文法の解説である文法解説情報を出力するディスプレイ等の解説情報出力手段を更に備える。   In order to solve the above-mentioned subject, the invention according to claim 3 is a language learning device according to claim 1 or claim 2, wherein timing at which repetition of a plurality of viewing scenes by the viewing control means is finished The information processing apparatus further comprises commentary information output means such as a display for outputting grammar commentary information which is a commentary of the grammar corresponding to the viewing step.

請求項3に記載の発明によれば、請求項1又は請求項2に記載の発明の作用に加えて、複数の視聴シーン分の繰り返しが終了したタイミングにおいて文法解説情報を出力するので、視聴ステップの学習の対象となった文法の内容を容易に理解することができる。   According to the third aspect of the invention, in addition to the operation of the invention according to the first or second aspect, the grammar commentary information is output at the timing when the repetition for the plurality of viewing scenes is completed, so that the viewing step is performed. You can easily understand the content of the grammar that was the subject of learning.

上記の課題を解決するために、請求項4に記載の発明は、請求項1から請求項3のいずれか一項に記載の言語学習装置において、前記録音制御手段による複数の前記録音シーン分の繰り返しが終了したタイミングにおいて、学習者を労う旨の労い情報を出力するディスプレイ等の労い情報出力手段を更に備える。   In order to solve the above problems, the invention according to claim 4 relates to the language learning device according to any one of claims 1 to 3, wherein a plurality of the recording scenes by the recording control means are stored. The information processing apparatus further includes labor information output means such as a display for outputting labor information to labor the learner at the timing when the repetition ends.

請求項4に記載の発明によれば、請求項1から請求項3のいずれか一項に記載の発明の作用に加えて、複数の録音シーン分の繰り返しが終了したタイミングにおいて労い情報を出力するので、学習者の学習継続意欲を維持又は高めることができる。   According to the fourth aspect of the invention, in addition to the operation of the invention according to any one of the first to third aspects, labor information is output at the timing when repetition of a plurality of recording scenes is completed. Therefore, the learner's willingness to continue learning can be maintained or enhanced.

上記の課題を解決するために、請求項5に記載の発明は、請求項1から請求項4のいずれか一項に記載の言語学習装置において、前記録音した学習者の音声の内容を認識するレコードステップ処理部等の認識手段と、前記認識手段による認識結果と、前記録音画像及び前記録音音声それぞれの内容と、を比較し、両者の一致度を示す一致度情報を出力するディスプレイ等の一致度情報出力手段と、を更に備える。   In order to solve the above-mentioned subject, the invention according to claim 5 recognizes the contents of the voice of the recorded learner in the language learning device according to any one of claims 1 to 4 A match such as a display that compares recognition means such as a record step processing unit, the recognition result by the recognition means, and the contents of each of the recorded image and the recorded voice, and outputs matching degree information indicating the matching degree of both And a degree information output unit.

請求項5に記載の発明によれば、請求項1から請求項4のいずれか一項に記載の発明の作用に加えて、録音画像及び録音音声に対応する文章を発音した学習者の音声の内容を認識し、その認識結果と、録音画像及び録音音声それぞれの内容と、を比較し、両者の一致度を示す一致度情報を出力するので、学習者が発声した当該音声の内容が合っているか否かを迅速に認識しつつ、当該言語の学習を進めることができる。   According to the invention of claim 5, in addition to the operation of the invention according to any one of claims 1 to 4, the voice of a learner who pronounces a recorded image and a sentence corresponding to the recorded voice The content is recognized, the recognition result is compared with the content of each of the recorded image and the recorded voice, and the matching degree information indicating the degree of matching between the two is output, so the content of the voice uttered by the learner matches It is possible to advance learning of the language while quickly recognizing whether or not it is present.

上記の課題を解決するために、請求項6に記載の発明は、請求項1から請求項5のいずれか一項に記載の言語学習装置において、前記視聴ステップと前記録音ステップとの間に、複数の反復シーンからなる反復ステップを実行する反復ステップ実行手段あって、一の前記反復シーンを構成する前記画像及び前記音声である反復画像及び反復音声を出力するディスプレイ及びスピーカ等の反復出力手段と、各前記出力された反復画像及び反復音声に対応する前記文章を構成する単語の発音を促す発音促進情報を出力するディスプレイ等の発音促進手段と、前記反復画像及び前記反復音声の出力並びに前記発音促進情報の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記反復シーンごとに繰り返すように、前記反復出力手段及び前記発音促進手段を制御するリピートステップ処理部等の反復制御手段と、を備えるリピートステップ処理部等の反復ステップ実行手段を更に備える。   In order to solve the above-mentioned subject, the invention according to claim 6 is the language learning device according to any one of claims 1 to 5, wherein between the viewing step and the recording step, An iterative step executing means for executing an iterative step consisting of a plurality of repetitive scenes, wherein the image forming one of the repetitive scenes and the repetitive image and the repetitive speech as the sound are repetitive output means such as a display and a speaker A pronunciation promoting means such as a display for outputting pronunciation promotion information for prompting the pronunciation of words constituting the sentence corresponding to each of the outputted repetitive images and repetitive speech, output of the repetitive images and the repetitive speech, and the pronunciation The repetition such that the output of the promotion information is repeated for each of the plurality of repetitive scenes respectively constituted by the different sentences of the same grammar. Further comprising a repetition control means such as a repeat step processing unit that controls the force means and the sound facilitating means, an iteration step execution means such repeat step processor comprising a.

請求項6に記載の発明によれば、請求項1から請求項5のいずれか一項に記載の発明の作用に加えて、視聴ステップと録音ステップとの間に、複数の反復シーンからなる反復ステップを実行する。このとき、反復ステップとして、一の反復シーンを構成する反復画像及び反復音声を出力し、当該反復画像及び反復音声に対応する文章を構成する単語の発音を促す発音促進情報を出力することが、同一文法の相互に異なる文章によりそれぞれ構成される複数の反復シーンごとに繰り返される。よって、同一の文法の異なる文章により構成されるいわゆるパターンプラクティスとして、視聴ステップ及び録音ステップに加えて反復ステップが実行されることで、学習対象たる言語の学習効果(練習効果)をより向上させることができる。   According to the invention set forth in claim 6, in addition to the operation of the invention set forth in any one of claims 1 to 5, an iteration consisting of a plurality of repetitive scenes is provided between the viewing step and the recording step. Execute the step At this time, as an iterative step, outputting repetitive images constituting one repetitive scene and repetitive speech, and outputting provocation information prompting the user to pronounce words constituting the repetitive image and a sentence corresponding to the repetitive speech, It is repeated for each of a plurality of repetitive scenes each composed of different sentences of the same grammar. Therefore, as the so-called pattern practice composed of different sentences of the same grammar, the repetition step is performed in addition to the viewing step and the recording step, thereby further improving the learning effect (practicing effect) of the language to be learned Can.

上記の課題を解決するために、請求項7に記載の発明は、請求項6に記載の言語学習装置において、前記反復制御手段による複数の前記反復シーン分の繰り返しが終了したタイミングにおいて、前記反復ステップに対応する前記文法の解説である文法解説情報を出力するディスプレイ等の反復解説情報出力手段を更に備える。   In order to solve the above problems, the invention according to claim 7 is the language learning device according to claim 6, wherein the repetition is performed at the timing when the repetition of a plurality of repetitive scenes by the repetition control means is finished. It further comprises iterative commentary information output means such as a display for outputting grammar commentary information that is a commentary of the grammar corresponding to the step.

請求項7に記載の発明によれば、請求項6に記載の発明の作用に加えて、複数の反復シーン分の繰り返しが終了したタイミングにおいて文法解説情報を出力するので、反復ステップとしての学習の対象となった文法の内容を容易に理解することができる。   According to the invention described in claim 7, in addition to the operation of the invention described in claim 6, as grammatical commentary information is outputted at the timing when the repetition for a plurality of repetitive scenes ends, learning as an iterative step You can easily understand the content of the targeted grammar.

上記の課題を解決するために、請求項8に記載の発明は、請求項6又は請求項7に記載の言語学習装置において、前記視聴シーンの繰り返し数及び前記録音シーンの繰り返し数並びに前記反復シーンの繰り返し数が同一であるように構成される。   In order to solve the above problems, the invention according to claim 8 relates to the language learning device according to claim 6 or 7, wherein the number of repetitions of the viewing scene and the number of repetitions of the recording scene and the repetition scene The repetition number of is configured to be the same.

請求項8に記載の発明によれば、請求項6又は請求項7に記載の発明の作用に加えて、視聴シーンの繰り返し数及び録音シーンの繰り返し数並びに反復シーンの繰り返し数が同一であるので、パターンプラクティスとしての学習効果を更に高めることができる。   According to the invention as set forth in claim 8, in addition to the operation of the invention as set forth in claim 6 or claim 7, since the number of repetitions of viewing scenes, the number of repetitions of recording scenes and the number of repetitions of repetition scenes are the same. , Can further enhance the learning effect as pattern practice.

上記の課題を解決するために、請求項9に記載の発明は、請求項8に記載の言語学習装置において、各前記繰り返し数が四回であるように構成される。   In order to solve the above-mentioned subject, invention of Claim 9 is comprised in the language learning apparatus of Claim 8 so that each said repetition number is four times.

請求項9に記載の発明によれば、請求項8に記載の発明の作用に加えて、各繰り返し数が四回であるので、飽きを防止してパターンプラクティスとしての学習効果をより高めることができる。   According to the invention as set forth in claim 9, in addition to the action of the invention as set forth in claim 8, since each repetition number is four times, it is possible to prevent boredom and enhance the learning effect as pattern practice. it can.

上記の課題を解決するために、請求項10に記載の発明は、請求項1から請求項9のいずれか一項に記載の言語学習装置において、前記録音ステップの後に、複数の翻訳シーンからなる翻訳ステップを実行する翻訳ステップ実行手段あって、一の前記翻訳シーンを構成し且つ前記画像及び前記音声に対応した日本語により綴られた日本語文章を含む日本語画像を表示するディスプレイ等の日本語画像表示手段と、前記表示中の日本語画像に含まれる前記日本語文章に相当する前記言語による学習者の音声を翻訳音声として集音して録音するトランスレーションステップ処理部等の翻訳録音手段と、前記録音された翻訳音声を出力するスピーカ等の第1翻訳出力手段と、前記日本語文章に相当する前記言語の文章を含む画像及び当該言語の文章を発音した音声を出力するスピーカ等の第2翻訳出力手段と、前記日本語画像の表示、前記翻訳音声の集音及び録音、前記翻訳音声の出力、並びに前記第2翻訳出力手段による前記画像及び前記音声の出力を、同一文法の相互に異なる前記日本語文章によりそれぞれ構成される複数の前記翻訳シーンごとに繰り返すように、前記日本語画像表示手段、前記翻訳録音手段、前記第1翻訳出力手段及び前記第2翻訳出力手段を制御するトランスレーションステップ処理部等の翻訳制御手段と、を備えるトランスレーションステップ処理部等の翻訳ステップ実行手段を更に備える。   In order to solve the above-mentioned subject, the invention according to claim 10 consists of a plurality of translation scenes in the language learning device according to any one of claims 1 to 9, after the recording step. A translation step executing means for executing a translation step, such as a display such as a display which constructs one of the translation scenes and displays a Japanese image including Japanese sentences spelled in Japanese corresponding to the image and the voice; Translation and recording means such as a word image display means, and a translation step processing unit for collecting and recording the voice of the learner in the language corresponding to the Japanese sentence contained in the displayed Japanese image as a translated voice A first translation output unit such as a speaker for outputting the recorded translated speech, an image including a sentence of the language corresponding to the Japanese sentence, and a sentence of the language Second translation output means such as a speaker for outputting the voiced sound, display of the Japanese image, collection and recording of the translation voice, output of the translation voice, the image by the second translation output means, and The Japanese image display means, the translation recording means, the first translation output means, and the first translation output means, so that the output of voice is repeated for each of a plurality of the translation scenes respectively composed of different Japanese sentences of the same grammar. And translation control means such as a translation step processing unit for controlling the second translation output means, and translation step execution means such as a translation step processing unit.

請求項10に記載の発明によれば、請求項1から請求項9のいずれか一項に記載の発明の作用に加えて、録音ステップの後に、複数の翻訳シーンからなる翻訳ステップを実行する。このとき、翻訳ステップとして、一の翻訳シーンを構成する日本語画像が表示され、表示中の日本語画像に含まれる日本語文章に相当する翻訳音声が録音され、録音された翻訳音声が出力され、日本語文章に相当する学習対象の言語の文章を含む画像及び当該言語の文章を発音した音声が出力されることが、同一文法の相互に異なる日本語文章によりそれぞれ構成される複数の翻訳シーンごとに繰り返される。よって、同一の文法の異なる日本語文章によるいわゆるパターンプラクティスとして翻訳ステップが更に実行されることで、学習対象たる言語の学習効果(練習効果)をより向上させることができる。   According to the invention of claim 10, in addition to the operation of the invention according to any one of claims 1 to 9, after the recording step, a translation step consisting of a plurality of translation scenes is performed. At this time, as a translation step, a Japanese image constituting one translation scene is displayed, a translated voice corresponding to the Japanese sentence included in the displayed Japanese image is recorded, and the recorded translated voice is output. A plurality of translation scenes each composed of different Japanese sentences of the same grammar that an image including a sentence of a language to be learned equivalent to a Japanese sentence and a voice uttering the sentence of the language are outputted It is repeated every time. Therefore, by further executing the translation step as so-called pattern practice using different Japanese sentences of the same grammar, it is possible to further improve the learning effect (practice effect) of the language to be learned.

上記の課題を解決するために、請求項11に記載の発明は、請求項10に記載の言語学習装置において、前記翻訳録音手段による集音及び録音を開始する際に操作される操作部等の翻訳操作手段を更に備え、前記翻訳録音手段は、前記翻訳操作手段を用いた操作が実行された場合に、前記翻訳音声の集音及び録音を行うように構成される。   In order to solve the above-mentioned problems, the invention according to claim 11 relates to the language learning device according to claim 10, wherein an operation unit or the like operated at the start of sound collection and recording by the translation and recording means The system further comprises translation operation means, and the translation recording means is configured to collect and record the translated speech when an operation using the translation operation means is performed.

請求項11に記載の発明によれば、請求項10に記載の発明の作用に加えて、翻訳録音手段による集音及び録音を開始する際に操作される翻訳操作手段を用いた当該操作が実行された場合に、翻訳音声の集音及び録音を行う。よって、学習者の任意のタイミングで翻訳音声の発音及び録音を行うことができるので、余裕を持ってその言語を学習することができる。   According to the invention as set forth in claim 11, in addition to the action of the invention as set forth in claim 10, the operation is carried out using the translation operation means operated at the start of sound collection and recording by the translation recording means. If it is, collect and record translated speech. Therefore, since the translated speech can be pronounced and recorded at any timing of the learner, the language can be learned with a margin.

上記の課題を解決するために、請求項12に記載の発明は、請求項10又は請求項11に記載の言語学習装置において、前記日本語文章における読点の位置が、当該日本語文章に相当する前記言語の文章における単語の区切りに相当する位置とされているように構成される。   In order to solve the above-mentioned subject, in the invention according to claim 12, in the language learning device according to claim 10 or 11, the position of the reading point in the Japanese sentence corresponds to the Japanese sentence It is configured to be a position corresponding to a word break in a sentence of the language.

請求項12に記載の発明によれば、請求項10又は請求項11に記載の発明の作用に加えて、日本語文章における読点の位置が、当該日本語文章に相当する学習対象の言語の文章における単語の区切りに相当する位置とされているので、より正確な翻訳音声の集音及び録音を行わせることができる。   According to the invention as set forth in claim 12, in addition to the action of the invention as set forth in claim 10 or claim 11, a sentence of a language to be studied in which the position of the reading point in the Japanese sentence corresponds to the Japanese sentence As a position corresponding to the word break in, it is possible to collect and record translated speech more accurately.

上記の課題を解決するために、請求項13に記載の発明は、請求項10から請求項12のいずれか一項に記載の言語学習装置において、前記表示中の日本語画像に含まれる前記日本語文章に相当し且つ前記言語により綴られた文章である翻訳文章を発音した音声を出力する際に操作される操作部等の翻訳音声出力操作手段と、前記翻訳音声出力操作手段を用いた操作が実行された場合に、前記翻訳文章を発音した音声を出力するスピーカ等の翻訳音声出力手段と、を更に備える。   In order to solve the above-mentioned subject, the invention according to claim 13 is the language learning device according to any one of claims 10 to 12, wherein the Japanese contained in the displayed Japanese image Translation speech output operation means such as an operation unit operated when outputting a voice corresponding to a word sentence and uttering a translated sentence which is a sentence spelled in the language, and operation using the translation speech output operation means And a translated voice output unit such as a speaker for outputting a voice generated by uttering the translated sentence.

請求項13に記載の発明によれば、請求項10から請求項12のいずれか一項に記載の発明の作用によれば、翻訳音声出力操作手段を用いた操作が実行された場合に、表示中の日本語画像に含まれる日本語文章に相当する翻訳文章を発音した音声を出力する。よって、学習者において日本語文章の翻訳が難しい場合に、当該学習者による翻訳音声出力操作手段を用いた操作により翻訳文章を発音した音声を出力させることで、停滞することなく言語学習を進めることができる。   According to the invention as set forth in claim 13, according to the action of the invention as set forth in any one of claims 10 to 12, a display is made when the operation using the translation voice output operation means is performed. Outputs a voice that utters a translated sentence corresponding to the Japanese sentence contained in the Japanese image in the middle. Therefore, when it is difficult for the learner to translate Japanese sentences, the language learning can be advanced without stagnation by outputting the speech in which the translated sentences are pronounced by the operation of the learner using the translated speech output operation means. Can.

上記の課題を解決するために、請求項14に記載の発明は、請求項10から請求項13のいずれか一項に記載の言語学習装置において、前記録音された翻訳音声の内容を認識するトランスレーションステップ処理部等の翻訳認識手段と、前記翻訳認識手段による認識結果と、前記日本語文章に相当する前記言語の文章の内容と、を比較し、両者の一致度を示す一致度情報を出力するディスプレイ等の翻訳一致度情報出力手段と、を更に備える。   In order to solve the above problems, the invention according to claim 14 is a language learning device according to any one of claims 10 to 13, wherein a transformer for recognizing the contents of the recorded translated speech is provided. The translation recognition means such as a translation step processing unit, the recognition result by the translation recognition means, and the content of the sentence of the language corresponding to the Japanese sentence are compared, and the coincidence degree information indicating the coincidence degree of both is output And a translation matching degree information output unit such as a display.

請求項14に記載の発明によれば、請求項10から請求項13のいずれか一項に記載の発明の作用に加えて、日本語文章に相当する学習者の音声である翻訳音声の内容を認識し、その認識結果と、日本語文章に相当する学習対象たる言語の文章の内容と、を比較し、両者の一致度を示す一致度情報を出力するので、学習者が発声した当該翻訳音声の内容が合っているか否かを迅速に認識しつつ、当該言語の学習を進めることができる。   According to the invention as set forth in claim 14, in addition to the function of the invention as set forth in any one of claims 10 to 13, the contents of the translated speech which is the speech of the learner equivalent to the Japanese sentence Since the recognition result is compared with the content of the sentence of the language to be learned corresponding to the Japanese sentence, and the matching degree information indicating the matching degree between the two is output, the translated speech uttered by the learner It is possible to advance learning of the language while quickly recognizing whether or not the content of

上記の課題を解決するために、請求項15に記載の発明は、請求項1及び請求項6を引用する請求項10から請求項14のいずれか一項に記載の言語学習装置において、一の前記翻訳シーンに対応する前記日本語文章の数が、一の前記視聴シーンを構成する前記画像及び前記音声に対応する前記文章の数、一の前記録音シーンを構成する前記画像及び前記音声に対応する前記文章の数及び一の前記反復シーンを構成する前記画像及び前記音声に対応する前記文章の数のいずれよりも少ないように構成される。   In order to solve the above-mentioned problems, the invention according to claim 15 relates to the language learning device according to any one of claims 10 to 14 in which claims 1 and 6 are cited. The number of the Japanese sentences corresponding to the translation scene corresponds to the number of the images corresponding to the one viewing scene and the number of the sentences corresponding to the sound, and the images and the sounds constituting the one recording scene The number of sentences is less than any of the number of the sentences and the number of the sentences corresponding to the image and the sound constituting one repetitive scene.

請求項15に記載の発明によれば、請求項1及び請求項6を引用する請求項10から請求項14のいずれか一項に記載の発明の作用に加えて、一の翻訳シーンに対応する日本語文章の数が、一の視聴シーンを構成する画像等に対応する文章の数、一の録音シーンを構成する画像等に対応する文章の数及び一の反復シーンを構成する画像等に対応する文章の数のいずれよりも少ないので、難度の高い翻訳シーン内の日本語文章の数を抑えて学習意欲の低下を防止することができる。   According to the invention as set forth in claim 15, in addition to the operation of the invention as set forth in any one of claims 10 to 14 in which claim 1 and claim 6 are cited, it corresponds to one translation scene. The number of Japanese sentences corresponds to the number of sentences corresponding to an image etc. constituting one viewing scene, the number of sentences corresponding to an image etc. constituting one recording scene, an image etc. constituting one repetitive scene Since the number of sentences to be translated is smaller than any of the number of sentences to be translated, it is possible to suppress the number of Japanese sentences in a highly difficult translation scene and prevent a decline in learning motivation.

上記の課題を解決するために、請求項16に記載の発明は、請求項1及び請求項6を引用する請求項10に記載の言語学習装置において、前記視聴出力手段、前記録音出力手段、前記反復出力手段又は前記第2翻訳出力手段の少なくともいずれか一つは、出力中の画像及び音声に対応する前記文章を構成する単語の、当該音声としての出力タイミングにおける当該画像内の表示態様を、当該出力タイミング後に当該音声として出力される他の前記単語の当該画像内の表示態様に対して異ならせつつ画像及び音声を出力するように構成される。   In order to solve the above problems, the invention according to claim 16 relates to the language learning device according to claim 10, wherein claim 1 and claim 6 are cited, wherein the viewing output means, the recording output means, At least any one of the repetition output means or the second translation output means displays the display mode in the image at the output timing as the voice of the word constituting the sentence corresponding to the image and voice being output. It is configured to output an image and a sound while making different the display mode in the image of the other word output as the voice after the output timing.

請求項16に記載の発明の作用によれば、請求項1及び請求項6を引用する請求項10に記載の発明の作用に加えて、出力中の画像及び音声に対応する文章を構成する単語の、音声としての出力タイミングにおける画像内の表示態様を、その出力タイミング後に音声として出力される他の単語の画像内の表示態様に対して異ならせつつ画像及び音声を出力するので、音声としていずれの単語が出力されているかを容易に認識することができる。   According to the operation of the invention set forth in claim 16, in addition to the operation of the invention set forth in claim 10 relating to claim 1 and claim 6, words constituting the text corresponding to the image and sound being output Since the image and sound are outputted while making the display mode in the image at the output timing as voice different from the display mode in the image of another word output as voice after the output timing, It can be easily recognized whether the word is output.

上記の課題を解決するために、請求項17に記載の発明は、請求項16に記載の言語学習装置において、前記表示態様が前記単語の前記画像内の表示色であるように構成される。   In order to solve the above problems, the invention according to claim 17 is configured such that, in the language learning device according to claim 16, the display mode is a display color in the image of the word.

請求項17に記載の発明の作用によれば、請求項16に記載の発明の作用に加えて、出力中の画像及び音声に対応する文章を構成する単語の、音声としての出力タイミングにおける画像内の表示色が、その出力タイミング後に音声として出力される他の単語の表示色態に対して異ならせられつつ画像及び音声が出力されるので、音声としていずれの単語が出力されているかをより容易に認識することができる。   According to the operation of the invention set forth in claim 17, in addition to the operation of the invention set forth in claim 16, within the image at the output timing as sound of the word constituting the sentence corresponding to the image and sound being outputted Since the image and the sound are outputted while the display color of is made different from the display color form of the other words outputted as the speech after the output timing, it is easier to determine which word is outputted as the speech Can be recognized.

上記の課題を解決するために、請求項18に記載の発明は、請求項1及び請求項6を引用する請求項10に記載の言語学習装置において、相互に対応する前記視聴シーン、前記反復シーン、前記録音シーン及び前記翻訳シーンの当該シーンを構成する少なくともキャラクタが同一であるように構成される。   In order to solve the above-mentioned problems, the invention according to claim 18 relates to the language learning device according to claim 10, wherein claim 1 and claim 6 are cited. And at least characters constituting the scene of the recording scene and the scene of the translation scene are identical.

請求項18に記載の発明の作用によれば、請求項1及び請求項6を引用する請求項10に記載の発明の作用に加えて、相互に対応する視聴シーン、反復シーン、録音シーン及び翻訳シーンの当該シーンを構成する少なくともキャラクタが同一であるので、視聴ステップ→反復ステップ→録音ステップ→翻訳ステップと同じキャラクタにより学習が進むことで、学習効果をより高めることができる。   According to the operation of the invention set forth in claim 18, in addition to the operation of the invention set forth in claim 10 relating to claim 1 and claim 6, mutually corresponding viewing scenes, repetitive scenes, recorded scenes and translations Since at least the characters constituting the scene of the scene are the same, the learning effect can be further enhanced by advancing learning by the same character as the viewing step → repetition step → recording step → translation step.

上記の課題を解決するために、請求項19に記載の発明は、請求項1及び請求項6を引用する請求項10に記載の言語学習装置において、前記視聴ステップ、前記反復ステップ、前記録音ステップ及び前記翻訳ステップがそれぞれ終了した場合、当該終了したことを示す終了情報を当該終了した学習者に関連付けて出力可能に記録する処理部等の終了情報記録手段を更に備える。   In order to solve the above problems, the invention according to claim 19 relates to the language learning device according to claim 10, wherein claim 1 and claim 6 are cited, wherein the viewing step, the repetitive step, the recording step And end information recording means such as a processing unit that records the end information indicating the end when the end of the translation step is output in association with the end learner and enables output.

請求項19に記載の発明の作用によれば、請求項1及び請求項6を引用する請求項10に記載の発明の作用に加えて、視聴ステップ、反復ステップ、録音ステップ及び翻訳ステップがそれぞれ終了した場合に、当該終了したことを示す終了情報が当該終了した学習者に関連付けて出力可能に記録されるので、当該学習者における事後の学習意欲を更に増大させることができる。   According to the operation of the invention set forth in claim 19, in addition to the operation of the invention set forth in claim 10 relating to claim 1 and claim 6, each of the viewing step, the repetition step, the recording step and the translation step is completed. In this case, the end information indicating the end is recorded in an outputable manner in association with the end learner, so that it is possible to further increase the desire to learn after the learner.

本発明によれば、学習対象たる言語により綴られた文章を含む画像と、当該文章を発音した音声と、を、複数の視聴シーンとして出力する視聴ステップを実行し、その後に、複数の録音シーンからなる録音ステップを実行する。このとき、視聴ステップとして、一の視聴シーンを構成する視聴画像及び視聴音声を出力することが、同一文法の相互に異なる文章によりそれぞれ構成される複数の視聴シーンとして繰り返される。一方録音ステップとして、一の録音シーンを構成する録音画像及び録音音声を出力し、録音画像及び録音音声に対応する文章を発音した学習者の音声を集音して録音し、録音した学習者の音声を出力することが、同一文法の相互に異なる文章によりそれぞれ構成される複数の録音シーンごとに繰り返される。   According to the present invention, a viewing step of outputting an image including a sentence spelled out in a language to be learned and a voice uttering the sentence as a plurality of viewing scenes is executed, and then a plurality of recording scenes are performed. Execute the recording step consisting of At this time, as a viewing step, outputting a viewing image and a viewing sound that constitute one viewing scene is repeated as a plurality of viewing scenes each composed of different sentences of the same grammar. On the other hand, in the recording step, the recording image and the recording voice constituting one recording scene are output, and the voice of the learner who pronounces the recording image and the sentence corresponding to the recording voice is collected and recorded, Outputting the voice is repeated for each of a plurality of recording scenes each composed of mutually different sentences of the same grammar.

従って、視聴ステップと録音ステップとが、同一の文法の異なる文章により構成されるいわゆるパターンプラクティスとして実行されることで、学習対象たる言語の学習効果(練習効果)を向上させることができる。   Therefore, the learning effect (practice effect) of the language to be learned can be improved by executing the viewing step and the recording step as so-called pattern practice configured by different sentences of the same grammar.

第1実施形態に係る言語学習システムの概要構成を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows schematic structure of the language learning system which concerns on 1st Embodiment. 第1実施形態に係る言語学習システムに含まれるサーバ装置に記憶されているデータベースの内容を例示する図である。It is a figure which illustrates the contents of the database memorized by the server apparatus contained in the language learning system concerning a 1st embodiment. 第1実施形態に係る言語学習処理の全体を示すフローチャートである。It is a flowchart which shows the whole of the language learning process which concerns on 1st Embodiment. 第1実施形態に係る言語学習処理におけるリスニングステップの内容を示すフローチャートである。It is a flowchart which shows the content of the listening step in the language learning process which concerns on 1st Embodiment. 第1実施形態に係る言語学習処理におけるリスニングステップにおいて表示される画像例を示す図(I)である。It is figure (I) which shows the example of an image displayed in the listening step in the language learning process which concerns on 1st Embodiment. 第1実施形態に係る言語学習処理におけるリスニングステップにおいて表示される画像例を示す図(II)であり、(a)は当該リスニングステップにおける第1リスニングシーンにおいて表示される画像例を示す図であり、(b)は当該リスニングステップにおける第2リスニングシーンにおいて表示される画像例を示す図であり、(c)は当該リスニングステップにおける第3リスニングシーンにおいて表示される画像例を示す図であり、(d)は当該リスニングステップにおける第4リスニングシーンにおいて表示される画像例を示す図であり、(e)は当該リスニングステップにおける解説として表示される画像例を示す図である。It is a figure (II) which shows the example of an image displayed in the listening step in the language learning process which concerns on 1st Embodiment, and (a) is a figure which shows the example of an image displayed in the 1st listening scene in the said listening step. (B) shows an example of an image displayed in the second listening scene in the listening step, (c) shows an example of an image displayed in the third listening scene in the listening step, d) shows an example of an image displayed in the fourth listening scene in the listening step, and (e) shows an example of an image displayed as an explanation in the listening step. 第1実施形態に係る言語学習処理におけるリピートステップの内容を示すフローチャートである。It is a flowchart which shows the content of the repeat step in the language learning process which concerns on 1st Embodiment. 第1実施形態に係る言語学習処理におけるリピートステップにおいて表示される画像例を示す図であり、(a)は当該リピートステップにおける第1リピートシーンにおいて表示される画像例を示す図であり、(b)は当該第1リピートシーンにおける発音時に表示される画像例を示す図であり、(c)は当該リピートステップにおける第2リピートシーンにおいて表示される画像例を示す図であり、(d)は当該第2リピートシーンにおける発音時に表示される画像例を示す図であり、(e)は当該リピートステップにおける解説として表示される画像例を示す図である。It is a figure which shows the example of an image displayed in the repeat step in the language learning process which concerns on 1st Embodiment, (a) is a figure which shows the example of an image displayed in the 1st repeat scene in the said repeat step. Is an example of an image displayed at the time of sound generation in the first repeat scene, (c) is an example of an image displayed in the second repeat scene in the repeat step, and (d) is the illustration It is a figure which shows the example of an image displayed at the time of the pronunciation | sound_production in a 2nd repeat scene, (e) is a figure which shows the example of an image displayed as commentary in the said repeat step. 第1実施形態に係る言語学習処理におけるレコードステップの内容を示すフローチャートである。It is a flowchart which shows the content of the record step in the language learning process which concerns on 1st Embodiment. 第1実施形態に係る言語学習処理におけるレコードステップにおいて表示される画像例を示す図であり、(a)は当該レコードステップにおける第1レコードシーンにおいて表示される画像例を示す図であり、(b)は当該第1レコードシーンにおける録音時に表示される画像例を示す図であり、(c)は当該レコードステップにおける第2レコードシーンにおいて表示される画像例を示す図であり、(d)は当該第2レコードシーンにおける録音時に表示される画像例を示す図である。It is a figure which shows the example of an image displayed in the record step in the language learning process which concerns on 1st Embodiment, (a) is a figure which shows the example of an image displayed in the 1st record scene in the said record step. Is an example of an image displayed at the time of recording in the first record scene, (c) is an example of an image displayed in the second record scene at the record step, and (d) is the illustration It is a figure which shows the example of an image displayed at the time of sound recording in a 2nd record scene. 第1実施形態に係る言語学習処理におけるトランスレーションステップの内容を示すフローチャートである。It is a flowchart which shows the content of the translation step in the language learning process which concerns on 1st Embodiment. 第1実施形態に係る言語学習処理におけるトランスレーションステップにおいて表示される画像例を示す図(I)であり、(a)は当該トランスレーションステップにおける第1トランスレーションシーンの問題提示時において表示される画像例を示す図であり、(b)は当該トランスレーションステップにおける第2トランスレーションシーンの問題提示時において表示される画像例を示す図であり、(c)は当該トランスレーションステップにおける第3トランスレーションシーンの問題提示時において表示される画像例を示す図であり、(d)は当該トランスレーションステップにおける第4トランスレーションシーンの問題提示時において表示される画像例を示す図である。It is a figure (I) which shows the example of an image displayed in the translation step in the language learning process which concerns on 1st Embodiment, and (a) is displayed at the time of the problem presentation of the 1st translation scene in the said translation step. It is a figure which shows the example of an image, (b) is a figure which shows the example of an image displayed at the time of the problem presentation of the 2nd translation scene in the said translation step, (c) is the 3rd transformer in the said translation step. It is a figure which shows the example of an image displayed at the time of the problem presentation of the relationship scene, (d) is a figure which shows the example of an image displayed at the time of the problem presentation of the 4th translation scene in the said translation step. 第1実施形態に係る言語学習処理におけるトランスレーションステップにおいて表示される画像例を示す図(II)であり、(a)は当該トランスレーションステップにおける第1トランスレーションシーンの解答提示時において表示される画像例を示す図であり、(b)は当該トランスレーションステップにおける第2トランスレーションシーンの解答提示時において表示される画像例を示す図であり、(c)は当該トランスレーションステップにおける第3トランスレーションシーンの解答提示時において表示される画像例を示す図であり、(d)は当該トランスレーションステップにおける第4トランスレーションシーンの解答提示時において表示される画像例を示す図である。It is a figure (II) which shows the example of an image displayed in the translation step in the language learning process which concerns on 1st Embodiment, and (a) is displayed at the time of the answer presentation of the 1st translation scene in the said translation step. It is a figure which shows the example of an image, (b) is a figure which shows the example of an image displayed at the time of the answer presentation of the 2nd translation scene in the said translation step, (c) is the 3rd transformer in the said translation step. It is a figure which shows the example of an image displayed at the time of the answer presentation of a repetition scene, (d) is a figure which shows the example of an image displayed at the time of the answer presentation of the 4th translation scene in the said translation step. 第1実施形態に係る言語学習処理において取得されるアイテムの例を示す図であり、(a)はアイテム取得前の地図を例示する図であり、(b)は一つのアイテムの例を示す図であり、(c)はアイテム取得後の地図を例示する図である。It is a figure which shows the example of the item acquired in the language learning process which concerns on 1st Embodiment, (a) is a figure which illustrates the map before item acquisition, (b) is a figure which shows the example of one item. (C) is a figure which illustrates the map after item acquisition. 第2実施形態に係る言語学習処理におけるレコードステップの内容を示すフローチャートである。It is a flowchart which shows the content of the record step in the language learning process which concerns on 2nd Embodiment. 第2実施形態に係る言語学習処理におけるトランスレーションステップの内容を示すフローチャートである。It is a flowchart which shows the content of the translation step in the language learning process which concerns on 2nd Embodiment.

次に、本発明を実施するための最良の形態について、図面に基づいて説明する。なお、以下に説明する各実施形態は、日本人たるユーザが、自身が所有する端末装置を用いて英語を学習する際に用いられる言語学習システムに対して本発明を適用した場合の実施の形態である。ここで当該端末装置の例としては、当該ユーザが所有するPC等が挙げられる。   Next, the best mode for carrying out the present invention will be described based on the drawings. In each of the embodiments described below, the present invention is applied to a language learning system used when a user who is Japanese learns English using a terminal device owned by the user. It is. Here, a PC etc. which the said user owns are mentioned as an example of the said terminal device.

(I)第1実施形態
始めに、本発明に係る第1実施形態について、図1乃至図13を用いて説明する。
(I) First Embodiment At the beginning, the first embodiment according to the present invention will be described with reference to FIGS.

(i)第1実施形態に係る言語学習システムの構成等の概要について
先ず、第1実施形態に係る言語学習システムの構成の概要、及び第1実施形態に係る言語学習処理の概要について、図1及び図2を用いてそれぞれ説明する。なお、図1は第1実施形態に係る言語学習システムの概要構成を示すブロック図であり、図2は当該言語学習システムに含まれるサーバ装置に記憶されているデータベースの内容を例示する図である。
(I) Outline of Configuration of Language Learning System According to First Embodiment First, the outline of the configuration of the language learning system according to the first embodiment and the outline of language learning processing according to the first embodiment will be described with reference to FIG. Each will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of the language learning system according to the first embodiment, and FIG. 2 is a view exemplifying the contents of a database stored in a server device included in the language learning system. .

図1に示すように、第1実施形態に係る言語学習システムSは、それぞれが第1実施形態に係る端末装置T1、端末装置T2、端末装置T3、…、端末装置Tn(nは自然数)と、第1実施形態に係るサーバ装置SVと、上記端末装置T1、端末装置T2、端末装置T3、…、端末装置Tnとサーバ装置SVとを接続する既存のインターネット等のネットワークNWと、により構成されている。このとき、端末装置T1、端末装置T2、端末装置T3、…、端末装置Tnは、基本的には同一の構成及び機能を有するので、以下の第1実施形態の説明では、これらを纏めて「端末装置T」として、その構成及び機能を説明する。   As shown in FIG. 1, the language learning system S according to the first embodiment includes the terminal device T1, the terminal device T2, the terminal device T3,..., And the terminal device Tn (n is a natural number) each according to the first embodiment. The server apparatus SV according to the first embodiment, the terminal apparatus T1, the terminal apparatus T2, the terminal apparatus T3, ..., and the existing network NW such as the Internet connecting the terminal apparatus Tn and the server apparatus SV ing. At this time, since the terminal device T1, the terminal device T2, the terminal device T3,..., And the terminal device Tn basically have the same configuration and functions, in the description of the first embodiment below, these are collectively referred to as “ The configuration and functions of the terminal device T will be described.

次に上記サーバ装置SVは、通信部20と、CPU、RAM(Random Access Memory)及びROM(Read Only Memory)等からなる処理部21と、HDD(Hard Disc Drive)又はSSD(Solid State Drive)からなるデータベース22と、により構成されている。   Next, the server apparatus SV includes a communication unit 20, a processing unit 21 including a CPU, a random access memory (RAM) and a read only memory (ROM), and a hard disc drive (HDD) or a solid state drive (SSD). And a database 22.

一方上記端末装置Tは、CPU等からなり且つ第1実施形態に係る言語学習処理を中心的に実行する処理部1と、通信部2と、キーボード、マウス又はディスプレイ4の表示面に備えられたタッチパネル等からなる操作部3と、液晶ディスプレイ等からなるディスプレイ4と、HDD又はSSDからなる記録部5と、RAM及びROMからなるメモリ6と、スピーカ7と、マイク8と、により構成されている。また処理部1は、リスニングステップ処理部10と、リピートステップ処理部11と、レコードステップ処理部12と、トランスレーションステップ処理部13と、により構成されている。このとき、リスニングステップ処理部10、リピートステップ処理部11、レコードステップ処理部12及びトランスレーションステップ処理部13のそれぞれは、処理部1を構成するCPU等のハードウェアロジック回路により構成されていてもよいし、後述する第1実施形態に係る言語学習処理を示すフローチャートに対応するプログラムを処理部1で読み出して実行することにより、ソフトウェア的に実行されるものであってもよい。   On the other hand, the terminal device T is provided on the display surface of the processing unit 1, the communication unit 2, the keyboard, the mouse or the display 4 which comprises a CPU or the like and mainly executes the language learning process according to the first embodiment. An operation unit 3 comprising a touch panel or the like, a display 4 comprising a liquid crystal display or the like, a recording unit 5 comprising an HDD or SSD, a memory 6 comprising RAM and ROM, a speaker 7 and a microphone 8 . Further, the processing unit 1 is configured of a listening step processing unit 10, a repeat step processing unit 11, a record step processing unit 12, and a translation step processing unit 13. At this time, each of the listening step processing unit 10, the repeat step processing unit 11, the record step processing unit 12 and the translation step processing unit 13 may be configured by hardware logic circuits such as a CPU constituting the processing unit 1. The program may be executed as software by reading and executing a program corresponding to a flowchart showing language learning processing according to the first embodiment described later by the processing unit 1.

また、上記処理部1が本発明に係る「終了情報記録手段」の一例に、上記リスニングステップ処理部10が本発明に係る「視聴ステップ実行手段」の一例及び「視聴制御手段」の一例に、上記レコードステップ処理部12が本発明に係る「録音ステップ実行手段」の一例、「録音手段」の一例、「録音制御手段」の一例、「認識手段」の一例及び「一致度情報出力手段」の一例に、上記リピートステップ処理部11が本発明に係る「反復ステップ実行手段」の一例及び「反復制御手段」の一例に、上記トランスレーションステップ処理部13が本発明に係る「翻訳ステップ実行手段」の一例、「翻訳録音手段」の一例、「翻訳制御手段」の一例及び「翻訳認識手段」の一例に、それぞれ相当する。更に、ディスプレイ4及びスピーカ7が本発明に係る「視聴出力手段」の一例及び「反復出力手段」の一例に相当し、スピーカ7が本発明に係る「録音出力手段」の一例、「学習者音声出力手段」の一例、「第1翻訳出力手段」の一例、「第2翻訳出力手段」の一例及び「翻訳音声出力手段」の一例にそれぞれ相当する。更にまた、操作部3が本発明に係る「操作手段」の一例、「翻訳操作手段」の一例及び「翻訳音声出力操作手段」の一例にそれぞれ相当し、ディスプレイ4が本発明に係る「解説情報出力手段」の一例、「労い情報出力手段」の一例、「発音促進手段」の一例、「反復解説情報出力手段」の一例、「日本語画像表示手段」の一例及び「翻訳一致度情報出力手段」の一例にそれぞれ相当する。   The processing unit 1 is an example of the "end information recording means" according to the present invention, and the listening step processing unit 10 is an example of the "viewing step execution means" according to the present invention and an example of the "viewing control means". The record step processing unit 12 is an example of the "recording step execution means" according to the present invention, an example of the "recording means", an example of the "recording control means", an example of the "recognition means" and "coincidence information output means". In one example, the repeat step processing unit 11 is an example of the "repeated step execution means" according to the present invention and the translation step processing unit 13 is an example of the "translation step execution means" according to the present invention. The examples correspond to an example of “translation recording means”, an example of “translation control means”, and an example of “translation recognition means”. Furthermore, the display 4 and the speaker 7 correspond to an example of the "viewing output means" and an example of the "repetitive output means" according to the present invention, and the speaker 7 an example of the "recording output means" according to the present invention This corresponds to an example of “output means”, an example of “first translation output means”, an example of “second translation output means”, and an example of “translation voice output means”. Furthermore, the operation unit 3 corresponds to an example of the "operation means", an example of the "translation operation means" and an example of the "translation voice output operation means" according to the present invention, and the display 4 corresponds to the "commentary information according to the present invention One example of “output means”, one example of “work information output means”, one example of “pronunciation promotion means”, one example of “repeated commentary information output means”, one example of “Japanese image display means” and “translational coincidence information output means Each corresponds to an example of

以上の構成において、サーバ装置SVの通信部20は、処理部21の制御の下、ネットワークNWを介した各端末装置Tとサーバ装置SVとの間の種々のデータの授受を制御する。これにより処理部21は、データベース22に記録されている後述する各データ等を用い、各端末装置Tとの間でネットワークNW及び通信部20を介したデータの授受を行いつつ、第1実施形態に係る言語学習処理を実行する。   In the above configuration, the communication unit 20 of the server device SV controls the exchange of various data between each terminal device T and the server device SV via the network NW under the control of the processing unit 21. As a result, the processing unit 21 uses the data, which will be described later, stored in the database 22 and exchanges data with the terminal devices T via the network NW and the communication unit 20 in the first embodiment. Execute language learning process related to

一方各端末装置Tの通信部2は、処理部1の制御の下、ネットワークNWを介したサーバ装置SVとの種々のデータの授受を制御する。一方操作部3は、後述するスキップ操作用のスキップボタン、リトライ操作用のリトライボタン、録音操作用の録音ボタン及び解答確認操作用の解答確認操作ボタン等の操作ボタンやマウス等により構成されており、上記操作ボタン等の操作に対応した操作信号を生成して処理部3に出力する。このとき上記操作ボタンのそれぞれは、例えばキーボードのような物理的に押下できる操作ボタンであってもよいし、各操作ボタンに対応してディスプレイ4に表示される操作アイコンに相当するタッチパネルの位置をタッチすることにより当該操作ボタンに対応する操作が実現されるものであってもよい。   On the other hand, under the control of the processing unit 1, the communication unit 2 of each terminal device T controls exchange of various data with the server device SV via the network NW. On the other hand, the operation unit 3 includes operation buttons such as a skip button for skip operation described later, a retry button for retry operation, a recording button for recording operation, an answer confirmation operation button for answer confirmation operation, a mouse, etc. An operation signal corresponding to the operation of the operation button or the like is generated and output to the processing unit 3. At this time, each of the operation buttons may be an operation button that can be physically pressed, such as a keyboard, or the position of the touch panel corresponding to the operation icon displayed on the display 4 corresponding to each operation button An operation corresponding to the operation button may be realized by touching.

次に記録部5及びメモリ6は、処理部1の制御の下、当該処理部1が実行する第1実施形態に係る言語学習処理において必要なデータ等を、揮発性又は不揮発性に記録する。これらのデータ等は、必要に応じて処理部1により読み出され、第1実施形態に係る言語学習処理に供される。またディスプレイ4は、処理部1の制御の下、第1実施形態に係る言語学習処理において必要な後述の画像等を表示する。更にスピーカ7は、処理部1の制御の下、第1実施形態に係る言語学習処理において必要な後述の音声又は音を出力(放音)する。最後にマイク8は、端末装置Tのユーザが発する音声を集音し、音声信号として処理部1に出力する。   Next, the recording unit 5 and the memory 6 record, under the control of the processing unit 1, data or the like necessary for the language learning process according to the first embodiment executed by the processing unit 1 in a volatile or non-volatile manner. These data and the like are read by the processing unit 1 as necessary, and are provided to the language learning processing according to the first embodiment. In addition, the display 4 displays an image or the like described later, which is necessary in the language learning process according to the first embodiment, under the control of the processing unit 1. Furthermore, under the control of the processing unit 1, the speaker 7 outputs (sounds off) a sound or a sound described later necessary in the language learning process according to the first embodiment. Finally, the microphone 8 collects the voice emitted by the user of the terminal device T, and outputs it to the processing unit 1 as a voice signal.

次に、処理部1のリスニングステップ処理部10は、上記操作信号に基づき、ディスプレイ4による画像表示及びスピーカ7による音声等の出力を用いて、第1実施形態に係る言語学習処理における後述のリスニングステップに係る処理を主として実行する。また処理部1のリピートステップ処理部11は、上記操作信号に基づき、上記画像表示及び上記音声等の出力を用いて、第1実施形態に係る言語学習処理における後述のリピートステップに係る処理を主として実行する。また処理部1のレコードステップ処理部12は、上記操作信号に基づき、上記画像表示及び上記音声等の出力を用いて、第1実施形態に係る言語学習処理における後述のレコードステップに係る処理を主として実行する。最後に処理部1のトランスレーションステップ処理部13は、上記操作信号に基づき、上記画像表示及び上記音声等の出力を用いて、第1実施形態に係る言語学習処理における後述のトランスレーションステップに係る処理を主として実行する。   Next, the listening step processing unit 10 of the processing unit 1 uses the image display by the display 4 and the output of the voice and the like by the speaker 7 based on the operation signal described above to perform later-described listening in language learning processing according to the first embodiment. Mainly execute the process related to the step. Further, the repeat step processing unit 11 of the processing unit 1 mainly performs the process related to the repeat step described later in the language learning process according to the first embodiment using the image display and the output of the voice and the like based on the operation signal. Run. In addition, the record step processing unit 12 of the processing unit 1 mainly performs the process related to the later-described record step in the language learning process according to the first embodiment using the image display and the output of the voice based on the operation signal. Run. Finally, based on the operation signal, the translation step processing unit 13 of the processing unit 1 relates to a translation step described later in the language learning processing according to the first embodiment using the image display and the output of the voice and the like. The processing is mainly performed.

ここで、第1実施形態に係る言語学習処理を構成する上記リスニングステップ、上記リピートステップ、上記レコードステップ及び上記トランスレーションステップの概要について、それぞれ説明する。ここで、上記リスニングステップが本発明に係る「視聴ステップ」の一例に、上記リピートステップが本発明に係る「反復ステップ」の一例に、上記レコードステップが本発明に係る「録音ステップ」の一例に、上記トランスレーションステップが本発明に係る「翻訳ステップ」の一例に、それぞれ相当する。   Here, an overview of the listening step, the repeat step, the record step, and the translation step that constitute the language learning process according to the first embodiment will be described. Here, the listening step is an example of the "viewing step" according to the present invention, the repeat step is an example of the "repeating step" according to the present invention, and the record step is an example of the "recording step" according to the present invention. The translation step corresponds to an example of the “translation step” according to the present invention.

先ず上記リスニングステップは、四つのリスニングシーンにより構成されている。このリスニングシーンが本発明に係る「視聴シーン」の一例に相当する。一つのリスニングシーンでは、ディスプレイ4上に、予め設定された動作をするキャラクタを含む画像と、そのキャラクタの動作を英語で表現した英文が二文表示される。このとき、当該二つの英文間には、そのリスニングシーンとして学習させるべき文法関係が、予め設定されている。この、予め設定された文法関係とは、例えば、いわゆる「時制の一致」等である。更に一のリスニングシーンでは、キャラクタを含んだ画像とそれに対応する各英文が表示されるのと同時に、その英文を英語で音読した音声が、スピーカ7を介して出力される。このとき表示される各英文では、それが対応する文法関係としてユーザに注意喚起すべき単語(例えば動詞等)が、それを強調するように他の単語とは異なる表示態様で表示される。この場合の異なる表示態様の例としては、当該強調の対象となる単語のみ下線が引かれる表示態様や、他の単語と異なるフォント又は表示色で表示される表示態様が挙げられる。   First, the listening step is composed of four listening scenes. This listening scene corresponds to an example of the "viewing scene" according to the present invention. In one listening scene, two sentences of an image including a character having a preset action and an English sentence expressing the action of the character in English are displayed on the display 4. At this time, a grammatical relationship to be learned as the listening scene is set in advance between the two English sentences. The predetermined grammatical relationship is, for example, so-called "temporal agreement" or the like. Further, in one listening scene, an image including a character and each corresponding English sentence are displayed, and at the same time, an audio obtained by reading the English sentence in English is outputted through the speaker 7. In each English sentence displayed at this time, a word (for example, a verb or the like) to be alerted to the user as a corresponding grammatical relation is displayed in a display mode different from other words so as to emphasize it. Examples of different display modes in this case include a display mode in which only the word to be emphasized is underlined, and a display mode in which a font or a display color different from other words is displayed.

これに加えて一のリスニングシーンでは、英語による音声として表示されている単語の表示態様が、その単語を音読した音声の出力タイミングにおいて、対応する音声が出力されていない他の単語(即ち、音読した音声が出力されている単語の前後又はその後に音声が出力される他の単語)の表示態様と異なるように表示される。この場合、当該異なる表示態様の例としては、その表示色やフォント、或いは表示時の大きさ等を異ならせる表示態様が挙げられる。なお、英文中の単語を英語で音読した音声の出力タイミングにおいてその単語の表示態様を他の単語の表示態様と異ならせて表示させる上述した表示制御処理は、第1実施形態に係る言語学習処理における他の上記リピートステップ、上記レコードステップ及び上記トランスレーションステップでも用いられる。よってこのような表示制御を、以下「英文カラオケ様表示」と称する。   In addition to this, in one listening scene, the display mode of the word displayed as the voice in English is the other word in which the corresponding voice is not output at the output timing of the voice obtained by reading the word aloud (ie, reading aloud The displayed voice is displayed differently from the display mode of the other words in which the voice is output, before or after the word in which the voice is output. In this case, examples of the different display modes include display modes in which the display color, font, size at the time of display, etc. are made different. The above-mentioned display control processing for displaying the display mode of the word in English in different manner from the display mode of the other word at the output timing of the speech in which the word in the English aloud is the language learning process according to the first embodiment It is also used in the other above-mentioned repeat step in above, the above-mentioned record step and the above-mentioned translation step. Therefore, such display control is hereinafter referred to as "English karaoke-like display".

そして、一のリスニングステップを構成する四つのリスニングシーンでは、キャラクタの動作を英語で表現した英文がそれぞれ二文表示されるが、当該四つのリスニングシーンについては同一の上記文法関係が予め設定されている。一のリスニングステップでは、キャラクタの動作を英語で表現し且つリスニングシーン間で同一の文法関係にある英文を二文ずつ含む四つのリスニングシーンが、異なるキャラクタの動作を表現する異なる英文について一回ごとに繰り返される。そして、四つのリスニングシーンが終了した後には、当該四つのリスニングシーン間で同一である上記文法関係についての解説が、ディスプレイ4上に表示される。   Then, in the four listening scenes constituting one listening step, two sentences each of English sentences expressing the action of the character in English are displayed, but the same above-mentioned grammatical relationship is set in advance for the four listening scenes. There is. In one listening step, four listening scenes which express the action of the character in English and which includes two sentences each having English sentences in the same grammatical relationship between the listening scenes are used once for different English sentences representing the actions of different characters. Repeated. Then, after the four listening scenes are finished, an explanation about the above-mentioned grammatical relation which is the same among the four listening scenes is displayed on the display 4.

次に上記リピートステップについて説明する。当該リピートステップは四つのリピートシーンにより構成されている。このリピートシーンが本発明に係る「反復シーン」の一例に相当する。一つのリピートシーンでは、ディスプレイ4上に、上記リスニングステップと同じ動作をするキャラクタを含む画像と、そのキャラクタの動作を英語で表現した英文が二文表示される。このとき、当該二つの英文間には、上記リスニングステップと同様の文法関係が予め設定されている。   Next, the repeat step will be described. The repeat step is composed of four repeat scenes. This repeat scene corresponds to an example of the "repeated scene" according to the present invention. In one repeat scene, an image including a character performing the same operation as the above-mentioned listening step and an English sentence expressing the operation of the character in English are displayed on the display 4 in two sentences. At this time, the same grammatical relationship as the above-mentioned listening step is set in advance between the two English sentences.

より具体的に一のリピートシーンでは、初めに、キャラクタを含んだ画像とそれに対応する第一の英文が表示されるのと同時に、当該第一の英文を英語で音読した音声が、スピーカ7を介して出力される。このとき表示される第一の英文における上記注意喚起すべき単語の表示態様の制御や上記英文カラオケ様表示については、上記リスニングステップと同様である。次に当該一のリピートシーンでは、上記第一の英文の表示及び対応する音読の音声の出力後に、当該音読の音声を真似た英語でのユーザの発音を指示する(促す)音声が出力される。その後当該一のリピートシーンでは、上記第一の英文に対応する音読の音声を除いた当該第一の英文の英文カラオケ様表示のみが実行される。その後当該一のリピートシーンでは、上記画像に対応する第二の英文についての、対応する画像と当該第二の英文の英文カラオケ様表示、当該第二の英文の英語音読音声の出力、第二の英文に対応する発音指示音声の出力、及び第二の英文に対応する音読の音声を除いた当該第二の英文の英文カラオケ様表示のみが、第一の英文と同様に繰り返される。   More specifically, in one repeat scene, first, an image including a character and a corresponding first English sentence are displayed, and at the same time, a voice in which the first English sentence is read in English is used as the speaker 7. Output through The control of the display mode of the word to be alerted in the first English sentence displayed at this time and the display of the English karaoke like manner are the same as the listening step. Next, in the one repeat scene, after the display of the first English sentence and the output of the corresponding aloud reading voice, a voice instructing (propelling) a user's pronunciation in English imitating the reading aloud voice is output . Thereafter, in the one repeat scene, only the first English-language karaoke-like display of the first English language except for the audio of the aloud corresponding to the first English language is executed. Thereafter, in the one repeat scene, the corresponding image and the second English English karaoke-like display of the second English corresponding to the above image, the output of the second English English speech, and the second Only the output of the pronunciation instruction voice corresponding to the English sentence and the English karaoke like indication of the second English sentence except the speech of the reading aloud corresponding to the second English sentence are repeated as in the first English sentence.

そして、一のリピートステップを構成する四つのリピートシーンで表示等される二つの英文については、当該四つのリピートシーンで上記リスニングシーンと同一の文法関係が予め設定されている。一のリピートステップでは、上記四つのリピートシーンが、上記リスニングステップと同一の異なるキャラクタの動作を表現する異なる英文について一回ごとに繰り返される。そして、四つのリピートシーンが終了した後には、当該四つのリピートシーン間で同一である上記文法関係(即ち、上記リスニングシーンにおける文法関係と同一の文法関係)についての解説が、ディスプレイ4上に表示される。   The same grammatical relationship as that of the above-described listening scene is set in advance for the two English sentences displayed on four repeat scenes constituting one repeat step. In one repeat step, the four repeat scenes are repeated once for different English sentences representing the same different character movement as the listening step. Then, after the four repeat scenes are finished, an explanation of the same grammatical relationship among the four repeat scenes (that is, the same grammatical relationship as the grammatical relationship in the listening scene) is displayed on the display 4 Be done.

次に上記レコードステップについて説明する。当該レコードステップは四つのレコードシーンにより構成されている。このレコードシーンが本発明に係る「録音シーン」の一例に相当する。一つのレコードシーンでは、ディスプレイ4上に、上記リスニングステップ及び上記リピートステップと同じ動作をするキャラクタを含む画像と、そのキャラクタの動作を英語で表現した英文が二文表示される。このとき、当該二つの英文間には、上記リスニングステップ及び上記リピートステップと同様の文法関係が予め設定されている。   Next, the above record step will be described. The record step is composed of four record scenes. This record scene corresponds to an example of the "recording scene" according to the present invention. In one record scene, an image including a character that performs the same operation as the listening step and the repeating step and an English sentence expressing the operation of the character in English are displayed on the display 4 in two sentences. At this time, the same grammatical relationship as the listening step and the repeating step is set in advance between the two English sentences.

より具体的に一のレコードシーンでは、初めに、キャラクタを含んだ画像とそれに対応する第一の英文が表示されるのと同時に、当該第一の英文を英語で音読した音声が、スピーカ7を介して出力される。このとき表示される第一の英文における上記注意喚起すべき単語の表示態様の制御や上記英文カラオケ様表示については、上記リスニングステップ及び上記リピートステップと同様である。次に当該一のレコードシーンでは、上記第一の英文の表示及び対応する音読の音声の出力後に、当該音読の音声を真似た英語でのユーザの発音が録音され、更に当該録音されたユーザの音声が再生される。その後当該一のレコードシーンでは、上記第一の英文に対応する音読の音声の出力及び当該第一の英文の英文カラオケ様表示のみが実行される。その後当該一のレコードシーンでは、上記画像に対応する第二の英文についての、対応する画像と当該第二の英文の英文カラオケ様表示、当該第二の英文のユーザの音読音声の録音及び再生、並びに第二の英文に対応する英語音読音声の出力及び当該第二の英文の英文カラオケ様表示が、第一の英文と同様に繰り返される。   More specifically, in one record scene, at the same time as the image including the character and the corresponding first English sentence are displayed, the sound of the first English sentence read in English is used as the speaker 7. Output through The control of the display mode of the word to be alerted in the first English sentence displayed at this time and the display of the English karaoke like manner are the same as the listening step and the repeating step. Next, in the one record scene, after the display of the first English sentence and the output of the corresponding read aloud voice, the user's pronunciation in English imitating the read aloud voice is recorded, and further the recorded user's Audio is played back. After that, in the one record scene, only the output of the sound of the reading aloud corresponding to the first English sentence and the English karaoke-like display of the first English sentence are executed. Thereafter, in the one record scene, the second image corresponding to the above-mentioned image and the corresponding image and the second English-language karaoke-like display of the second English sentence, recording and reproduction of the voice reading voice of the second English user And, the output of the English reading speech corresponding to the second English sentence and the English karaoke like indication of the second English sentence are repeated in the same manner as the first English sentence.

そして、一のレコードステップを構成する四つのレコードシーンで表示等される二つの英文については、当該四つのレコードシーンで上記リスニングシーン及び上記リピートステップと同一の文法関係が予め設定されている。一のレコードステップでは、上記四つのレコードシーンが、上記リスニングステップ及び上記リピートステップと同一の異なるキャラクタの動作を表現する異なる英文について一回ごとに繰り返される。そして、四つのレコードシーンが終了した後には、当該四つのレコードシーンを終了させたユーザを労う旨の、例えば「Good Job!!」と言った労い情報がディスプレイ4上に表示される。   The same grammatical relationship as the above-mentioned listening scene and the above-mentioned repeat step is set in advance for the two English sentences displayed by four record scenes constituting one record step. In one record step, the four record scenes are repeated once for different English sentences representing the same different character movement as the listening step and the repeating step. Then, after the four record scenes are finished, labor information such as “Good Job !!” indicating that the user who finished the four record scenes is worked is displayed on the display 4.

最後に上記トランスレーションステップについて説明する。当該トランスレーションステップは四つのトランスレーションシーンにより構成されている。このトランスレーションシーンが本発明に係る「翻訳シーン」の一例に相当する。一つのトランスレーションシーンでは、ディスプレイ4上に、上記リスニングステップ乃至上記レコードステップと同じ動作をするキャラクタを含む画像と、そのキャラクタの動作を日本語で表現した日本文が一文表示される。このとき、当該日本文における文法は、上記リスニングステップ乃至上記レコードステップそれぞれにおける文法関係に沿ったものである。   Finally, the translation step will be described. The translation step consists of four translation scenes. This translation scene corresponds to an example of the "translation scene" according to the present invention. In one translation scene, an image including a character that performs the same operation as the above-mentioned listening step to the above-mentioned recording step and a day text representing the operation of the character in Japanese are displayed on the display 4 in a single sentence. At this time, the grammar in the Japanese text is in accordance with the grammatical relationship in each of the listening step to the recording step.

より具体的に一のトランスレーションシーンでは、初めに、キャラクタを含んだ画像とそれに対応する日本文が一文表示される。その後当該一のトランスレーションシーンでは、上記日本文の表示後に、当該日本語をユーザが英語に訳して発音したその音声が録音され、更に当該録音された音声が再生される。その後当該一のトランスレーションシーンでは、上記日本文を英訳した英文(即ち、解答としての英文)を英語で音読した音声の出力及び当該英文の英文カラオケ様表示が実行される。   More specifically, in one translation scene, first, an image including a character and a corresponding day text are displayed. Thereafter, in the one translation scene, after the display of the Japanese text, the voice of the user who translated the Japanese into English and is pronounced is recorded, and the recorded voice is reproduced. After that, in the one translation scene, the output of the sound obtained by reading the English text (that is, the English text as the answer) translated from the Japanese text into English and the English karaoke-like display of the English text are executed.

そして、一のトランスレーションステップを構成する四つのトランスレーションシーンで表示等される日本文及びそれに対応する解答の英文については、当該四つのトランスレーションシーンで上記リスニングシーン乃至上記レコードステップと同一の文法関係が予め設定されている。一のトランスレーションステップでは、上記四つのトランスレーションシーンが、上記リスニングステップ乃至上記レコードステップと同一の異なるキャラクタの動作を表現する異なる日本文について、四回繰り返される。   With regard to the text and the like of the answer and the corresponding text displayed on the four translation scenes constituting one translation step, the same grammar as the above-mentioned listening scene to the above-mentioned record step in the four translation scenes. The relationship is preset. In one translation step, the four translation scenes are repeated four times for different Japanese sentences representing the same different character actions as the listening step and the recording step.

以上の通り、第1実施形態に係る言語学習処理では、上記リスニングステップが四つのリスニングシーンにより、上記リピートステップが四つのリピートシーンにより、上記レコードステップが四つのレコードシーンにより、そして上記トランスレーションステップが四つのトランスレーションシーンにより、それぞれ構成されている。そして、それぞれのステップにおいて、同じキャラクタの動きに応じた英語学習が、同一の文法関係に沿って行われる。このような第1実施形態に係る言語学習処理によれば、いわゆるパターンプラクティスの考え方に沿った英語学習を効果的に行うことができる。   As described above, in the language learning process according to the first embodiment, the listening step includes four listening scenes, the repeat step includes four repeat scenes, the record step includes four record scenes, and the translation step. Are each made up of four translation scenes. And in each step, English learning according to the movement of the same character is performed along the same grammatical relation. According to such language learning processing according to the first embodiment, it is possible to effectively perform English learning in accordance with the so-called pattern practice concept.

なお、上述した各シーンにおいて表示又は出力される画像及び音声のデータは、各端末装置Tの例えば記録部5に予め纏めて記録しておくことも可能である。しかしながら、端末装置Tが記録容量の少ない例えばタブレット端末であった場合は、それに接続されるサーバ装置SVのデータベース22内に一元的に記録しておき、これを、必要に応じて取得(ダウンロード)して用いるのが効率的である。また複数のユーザが第1実施形態に係る言語学習を行う場合、各ユーザの成績管理等もサーバ装置SVにおいて一元的に行われるのが好ましい。そこで、このような場合に第1実施形態に係るサーバ装置SVを用いる際には、データベース22としては、例えば図2に示すようなデータ等が記録されている必要がある。   In addition, it is also possible to record collectively the data of the image and sound displayed or output in each scene mentioned above, for example in the recording part 5 of each terminal device T beforehand. However, when the terminal device T is, for example, a tablet terminal having a small recording capacity, it is centrally recorded in the database 22 of the server device SV connected thereto, and acquired (downloaded) as necessary. It is efficient to use Further, when a plurality of users perform language learning according to the first embodiment, it is preferable that score management and the like of each user be performed centrally in the server apparatus SV. Therefore, when using the server apparatus SV according to the first embodiment in such a case, for example, data as shown in FIG. 2 needs to be recorded as the database 22.

即ち、上記の場合に各シーン用の画像や音声のデータ並びに成績管理用のデータを記録するデータベース22には、図2に示すように、シーンデータQDと、学習履歴データHDと、画像データGDと、アイテムデータITDと、が記録されているのが好ましい。このときシーンデータQDとしては、例えば学齢に応じた難度の上記各シーン用の音声のデータや英文又は日本文のデータが、当該学齢等を示す学齢IDにより相互に識別可能に記録されている。また学習履歴データHDとしては、ユーザ毎の過去の学習履歴やその進捗度を示すデータが、ユーザIDにより相互に識別可能に記録されている。更に画像データGDとしては、上記各シーン用の画像データが相互に識別可能に記録されている。最後にアイテムデータITDとしては、上記リスニングステップ乃至上記トランスレーションステップを一通り終了したユーザに対して与えられるご褒美に相当するアイテムのデータが、アイテムごとに識別可能に記録されている。なお、当該アイテム及びそのデータについては、後ほど詳述する。   That is, as shown in FIG. 2, the scene data QD, the learning history data HD, and the image data GD are stored in the database 22 for recording image and audio data for each scene and data for performance management in the above case. And item data ITD are preferably recorded. At this time, as the scene data QD, for example, audio data for each of the above-mentioned scenes with difficulty according to school age, and English or Japanese text data are recorded so as to be mutually distinguishable by a school age ID indicating the school age or the like. Further, as the learning history data HD, data indicating the past learning history for each user and the degree of progress thereof are recorded so as to be mutually distinguishable by the user ID. Furthermore, as the image data GD, the image data for each of the above-mentioned scenes are recorded so as to be mutually distinguishable. Finally, as item data ITD, data of an item corresponding to a reward given to the user who finished the above-mentioned listening step through the above-mentioned translation step is recorded in an identifiable manner for each item. The item and its data will be described in detail later.

(ii)第1実施形態に係る言語学習処理について
次に、上述した構成を備える言語学習システムSにおいて実行される、第1実施形態に係る言語学習処理の全体について、具体的に図1乃至図3を用いて説明する。なお図3は、第1実施形態に係る言語学習処理の全体を示すフローチャートである。また、図3に示される第1実施例に係る言語学習処理は、主として各端末装置Tの処理部1を中心として実行される処理である。
(Ii) Regarding the language learning process according to the first embodiment Next, the whole of the language learning process according to the first embodiment, which is executed in the language learning system S having the above-described configuration, is specifically shown in FIGS. This will be described using 3. FIG. 3 is a flowchart showing the entire language learning process according to the first embodiment. The language learning process according to the first embodiment shown in FIG. 3 is a process that is mainly executed around the processing unit 1 of each terminal device T.

図3にその全体を示すように、サーバ装置SVを含む言語学習システムSを用いた第1実施形態に係る言語学習処理では、初めに、端末装置Tの操作部3を用いて予め設定されたログイン操作が実行されることにより、ログイン処理が行われる(ステップS1)。このログイン処理として具体的には、例えば、サーバ装置SVとの間のログイン情報の授受や本人認証処理等、従来と同様のログイン処理が実行される。   As the whole is shown in FIG. 3, in the language learning process according to the first embodiment using the language learning system S including the server device SV, initially, it is preset using the operation unit 3 of the terminal device T. Login processing is performed by executing the login operation (step S1). Specifically, as the login process, for example, login process similar to the conventional one is performed, such as exchange of login information with the server apparatus SV, personal identification process, and the like.

次に処理部1は、ログインしたユーザが第1実施形態に係る言語学習処理を実行するために必要な種々のデータを、サーバ装置SVからネットワークNWを介して取得する(ステップS2)。このステップS2において処理部1は、ステップS1でログイン処理を行ったユーザに関する学習履歴データHDをサーバ装置SVのデータベース22において検索して取得する。これに加えて処理部1は、当該取得した学習履歴データHDにより示される当該ユーザの学習履歴に対応した次の段階の難度に相当するシーンデータQD及びこれに対応する画像データGDを上記データベース22において検索して取得する。これら取得された画像データGD及びシーンデータQDは、以降に実行される第1実施形態に係る言語学習処理に供される。   Next, the processing unit 1 acquires various data necessary for the logged-in user to execute the language learning process according to the first embodiment from the server apparatus SV via the network NW (step S2). In step S2, the processing unit 1 searches the database 22 of the server apparatus SV for learning history data HD related to the user who has performed the login process in step S1. In addition to this, the processing unit 1 adds scene data QD corresponding to the degree of difficulty of the next stage corresponding to the learning history of the user indicated by the acquired learning history data HD and the image data GD corresponding thereto. Search and acquire at. The acquired image data GD and scene data QD are subjected to language learning processing according to the first embodiment, which is executed later.

次に、処理部1のリスニングステップ処理部10による上記リスニングステップ(ステップS10)、リピートステップ処理部11による上記リピートステップ(ステップS20)、レコードステップ処理部12による上記レコードステップ(ステップS30)及びトランスレーションステップ処理部13による上記トランスレーションステップ(ステップS40)が、それぞれこの順番で実行される。これらの各ステップについては、後ほど詳述する。   Next, the listening step (step S10) by the listening step processing unit 10 of the processing unit 1, the repeat step (step S20) by the repeat step processing unit 11, the record step (step S30) by the record step processing unit 12 and the transformer The translation step (step S40) by the translation step processor 13 is executed in this order. Each of these steps will be described in detail later.

次に処理部1は、上記リスニングステップ乃至上記トランスレーションステップを一通り終了したことから、そのことによるユーザへのご褒美に相当するアイテムに相当するアイテムデータITDを、サーバ装置SVから取得する(ステップS3)。このアイテムとしては、例えば仮想の地域を示す地図が予め設定されており、その地図に、上記ユーザが好む建物又は遊具を一つずつ建設して最終的に大きな遊園地等を建築していく場合において、この建物又は遊具の一つずつが、それぞれに上記アイテムに相当する。そして、段階的に難度が高い上記リスニングステップ乃至上記トランスレーションステップを終了する(修了する)度に、ユーザの好みのアイテムに相当するアイテムデータITDが取得され、最終的にはユーザが好みの遊園地等を仮想的に建築できる。これによりユーザは、常に高いモチベーションを維持しつつ、第1実施形態に係る言語学習に取り組むことができる。なお、具体的なアイテムやそれを用いて仮想的に建築される遊園地等の例については、後ほど詳述する。   Next, the processing unit 1 obtains item data ITD corresponding to an item corresponding to a reward for the user due to the completion of the above-mentioned listening step to the above-mentioned translation step from the server apparatus SV ( Step S3). For example, a map showing a virtual area is set in advance as this item, and in the case of building a building or playground equipment preferred by the user one by one on the map and finally constructing a large amusement park etc. Each of the buildings or playground equipment corresponds to the above item. Then, every time the listening step to the translation step having a high level of difficulty or the translation step are finished (completed), item data ITD corresponding to a user's favorite item is acquired, and finally the user likes an amusement It is possible to construct the ground virtually. This allows the user to work on language learning according to the first embodiment while maintaining high motivation at all times. In addition, examples of concrete items and an amusement park virtually constructed using the items will be described in detail later.

その後処理部1は、その時点での上記リスニングステップ乃至上記トランスレーションステップを含む学習記録を示すデータをサーバ装置SVにアップロードし、これを、当該ユーザの学習履歴データHDに記録させる(ステップS4)。   Thereafter, the processing unit 1 uploads data indicating a learning record including the above-mentioned listening step to the above-mentioned translation step at that time to the server apparatus SV, and records this in the learning history data HD of the user (step S4). .

そして処理部1は、端末装置Tの操作部3を用いた予め設定されたログアウト操作が実行されたか否かを判定する(ステップS5)。ステップS5の判定により当該ログアウト操作が実行されていないと判定される場合(ステップS5:NO)、処理部1は、次の段階の第1実施形態に係る言語学習処理が実行されるものとして、上記ステップS2に戻って上述してきた一連の処理を繰り返す。一方ステップS5の判定により当該ログアウト操作が実行されたと判定される場合(ステップS5:YES)、処理部1は、必要なログアウト処理を実行する(ステップS6)。このログアウト処理として具体的には、例えば、サーバ装置SVとの間のログアウト情報の授受等、従来と同様のログアウト処理が実行される。その後処理部1は、第1実施形態に係る言語学習処理を終了する。   Then, the processing unit 1 determines whether or not a preset logout operation using the operation unit 3 of the terminal device T has been performed (step S5). If it is determined in step S5 that the logout operation is not performed (step S5: NO), the processing unit 1 assumes that the language learning process according to the first embodiment of the next stage is performed, Returning to step S2, the series of processes described above are repeated. On the other hand, when it is determined that the logout operation has been performed by the determination of step S5 (step S5: YES), the processing unit 1 executes a necessary logout process (step S6). Specifically, as the logout process, for example, a logout process similar to the conventional one, such as exchange of logout information with the server apparatus SV, is performed. After that, the processing unit 1 ends the language learning process according to the first embodiment.

(iii)第1実施形態に係るリスニングステップについて
次に、上記リスニングステップ処理部10を中心として実行される、第1実施形態に係るリスニングステップ(図3ステップS10参照)について、より具体的に図4乃至図6を用いて説明する。なお、図4は当該リスニングステップの内容を示すフローチャートであり、図5及び図6は当該リスニングステップにおいて表示される画像例を示す図である。
(Iii) About the listening step according to the first embodiment Next, the listening step according to the first embodiment (refer to step S10 in FIG. 3), which is executed centering on the listening step processing unit 10, will be more concretely illustrated. This will be described using FIG. FIG. 4 is a flowchart showing the contents of the listening step, and FIGS. 5 and 6 are diagrams showing examples of images displayed in the listening step.

図4に示すように、第1実施形態に係るリスニングステップ(図3ステップS10参照)としてリスニングステップ処理部10は、先ず、上記ステップS2で取得されていた画像データGD及びシーンデータQDを用いて、第1リスニングシーンを構成し且つ相互に上記文法関係にある二つの英文について、一文ずつ、当該英文を英語で音読した音声のスピーカ7を用いた出力と、ディスプレイ4を用いた当該英文の英文カラオケ様表示を実行する(ステップS100及びステップS101)。   As shown in FIG. 4, as the listening step (refer to step S10 in FIG. 3) according to the first embodiment, the listening step processor 10 first uses the image data GD and the scene data QD acquired in step S2. The output of the first listening scene and two sentences of the above grammatical relationship with each other, one sentence each, the speech of the English sentence read in English using the speaker 7 and the English sentence of the English sentence using the display 4 A karaoke like display is executed (step S100 and step S101).

ここで、上記ステップS100及び上記ステップS101においてリスニングステップ処理部10がディスプレイ4に表示する画像について、図5を用いて説明する。   Here, an image displayed on the display 4 by the listening step processing unit 10 in the step S100 and the step S101 will be described with reference to FIG.

上記二文のうち第一の英文を英語で音読した音声が出力されるステップS100では、図5に示すように、当該第一の英文で表現される動作をしているキャラクタを含む画像GS11と共に、第一の英文としての英文ST111が英文カラオケ様表示される。図5に例示する英文ST111の内容は、「I know that she is cooking dinner for us.」である。そして当該英文ST111の英文カラオケ様表示では、それが対応する文法関係としてユーザに注意喚起されるべき単語である「know」と「is」が、それを強調するように他の単語とは異なる斜体字及び異なる表示色(例えば赤色)で表示される。これに加えてステップS100では、英文カラオケ様表示として、音声として出力されている英文ST111内の単語(例えば図5に示す「cooking」)に対して、その出力タイミングにおいて、その単語以外の他の単語(即ち、英文ST111において「cooking」の前後又はその後に音声が出力される他の単語)と区別可能な文字修飾が付されて表示される。図5では、この文字修飾をマーカMKとして例示しているが、当該マーカMK自体がその音声の出力タイミングで付される他に、その単語(の文字)自体が、音声が出力されていない他の単語の文字と異なるように表示されればよい。以上のようにしてリスニングステップ処理部10は、ステップS100としての英文ST111の音声出力と英文カラオケ様表示を行う。なおこのとき、上記二文のうち第二の英文としての英文ST112は、英文ST111に対して視認性が低くなるように(即ち、例えば背景の色に溶け込むような色を用いて)、英文ST111と共にディスプレイ4に表示される。この英文ST112としては、それを英語で音読した音声が表示されていないことから、それの英文カラオケ様表示は行われないが、それが対応する文法関係としてユーザに注意喚起されるべき単語(英文ST112では「knew」と「was」)が、英文ST111と同様に斜体字で表示される。   In step S100 in which a voice obtained by reading the first English sentence aloud in English of the above two sentences is output, as shown in FIG. 5, together with an image GS11 including a character having an action expressed in the first English sentence As a first English sentence, English ST111 is displayed like English karaoke. The content of the English sentence ST111 illustrated in FIG. 5 is "I know that she is cooking dinner for us." Then, in the English karaoke-like display of the English sentence ST111, the words “know” and “is”, which are words that should be alerted to the user as the corresponding grammatical relation, are different from other words in italics to emphasize it. The characters are displayed in different display colors (for example, red). In addition to this, in step S100, with respect to the word in English ST 111 (for example, "cooking" shown in FIG. 5) outputted as voice as an English karaoke-like display, at the output timing, other words other than the word It is displayed with a character modification distinguishable from words (that is, other words from which speech is output before or after "cooking" in English ST111). Although this character modification is illustrated as a marker MK in FIG. 5, in addition to the marker MK itself being attached at the output timing of the voice, the word (character) itself is not output voice It may be displayed differently from the letter of the word. As described above, the listening step processing unit 10 performs the speech output of English ST111 and the display of English karaoke like step S100. At this time, the English sentence ST112 as the second English sentence of the above two sentences has a lower visibility than the English sentence ST111 (that is, for example, using a color that blends in with the background color). Along with the display 4. As this English ST 112 does not display the voice read aloud in English, the English karaoke like display of it is not performed, but it is a word that should be alerted to the user as the corresponding grammatical relation In ST112, "knew" and "was" are displayed in italics as in English ST111.

次に、当該英文ST112を英語で音読した音声が出力されるステップS101では、上記英文ST111の場合と同様に、英文ST112で表現される動作をしているキャラクタを含む上記画像GS11と共に、英文ST112が英文カラオケ様表示される。図5に例示する英文ST112の内容は、「I knew that she was cooking dinner for us.」である。この場合、英文ST111と英文ST112が対応する文法関係は「時制の一致」である。そして当該英文ST112の英文カラオケ様表示では、それが対応する文法関係としてユーザに注意喚起されるべき単語である「knew」と「was」が、英文ST111と同様の斜体字及び表示色で表示される。これに加えてステップS101でリスニングステップ処理部10は、英文ST112の英文カラオケ様表示として、英文ST111と同様の英文カラオケ様表示を行う。以上のようにしてリスニングステップ処理部10は、ステップS101としての英文ST112の音声出力と英文カラオケ様表示を行う。なおこのとき、ステップS100で英文カラオケ様表示及び英語音読音声の出力が行われた英文ST111については、ステップS100における英文ST112と同様に、現在英文カラオケ様表示及び英語音読音声の出力が行われている英文ST112に対して視認性が低くなるように英文ST112と共にディスプレイ4に表示してもよいし、当該英文ST112と同様の視認性としつつ英文カラオケ様表示を行わないようにしてディスプレイ4に表示してもよい。   Next, in step S101 where a voice obtained by reading the aloud of the English ST112 in English is outputted, as in the case of the above-mentioned English ST111, the English ST112 together with the image GS11 including the character represented by the English ST112. Is displayed like English karaoke. The content of the English sentence ST112 illustrated in FIG. 5 is "I knew that she was cooking dinner for us." In this case, the grammatical relationship corresponding to the English ST 111 and the English ST 112 is “temporal match”. Then, in the English karaoke-like display of the English ST112, the words “knew” and “was”, which should be alerted to the user as the corresponding grammatical relation, are displayed in the same italics and display color as the English ST111. Ru. In addition to this, in step S101, the listening step processing unit 10 performs English karaoke like display similar to English ST111 as English karaoke like display of English ST112. As described above, the listening step processing unit 10 performs the speech output of English ST112 and the display of English karaoke like step S101. At this time, for English sentence ST111 for which English karaoke like display and output of English reading voice are performed in step S100, like English sentence ST112 for step S100, English karaoke like display and output of English reading voice are currently performed. It may be displayed on the display 4 together with the English ST 112 so that the visibility is low with respect to the existing English ST 112, or displayed on the display 4 so as not to perform the English karaoke like display while having the same visibility as the English ST 112 You may

上記ステップS100及び上記ステップS101を実行した後、リスニングステップ処理部10は、上記ステップS100及び上記ステップS101が再度実行されることを望むユーザが操作部3の上記リトライボタンを操作してリトライ操作を行ったか否かを監視する(ステップS102)。ステップS102の監視においてリトライ操作が行われた場合(ステップS102:YES)、リスニングステップ処理部10は上記ステップS100に戻って、当該ステップS100及び上記ステップS101を再度実行する。一方ステップS101の監視においてリトライ操作が例えば予め設定された待機時間内に行われない場合(ステップS102:NO)、リスニングステップ処理部10は次に、上記英文ST111及び上記英文ST112それぞれの和訳文をディスプレイ4に表示する(ステップS103)。   After executing the above step S100 and the above step S101, the listening step processing unit 10 operates the retry button of the operation unit 3 by the user who desires that the above step S100 and the above step S101 be executed again It is monitored whether it has been done (step S102). If a retry operation is performed in the monitoring of step S102 (step S102: YES), the listening step processing unit 10 returns to step S100 and executes step S100 and step S101 again. On the other hand, when the retry operation is not performed within the waiting time set in advance, for example, in the monitoring of step S101 (step S102: NO), the listening step processing unit 10 next translates the Japanese translations of the English ST111 and the English ST112. It displays on the display 4 (step S103).

他方、上記ステップS100乃至上記ステップS103の実行と並行して、リスニングステップ処理部10は、上記ステップS100及び上記ステップS101を最後まで実行せずに次のリスニングシーンに進むことを望むユーザが操作部3の上記スキップボタンを操作してスキップ操作を行ったか否かを監視する(ステップS104。ステップS104:NO。)。ステップS104の監視においてスキップ操作が行われた場合(ステップS104:YES)、リスニングステップ処理部10は後述するステップS105に移行する。   On the other hand, in parallel with the execution of the above steps S100 to S103, the listening step processor 10 does not execute the above steps S100 and S101 until the end but the user wants to proceed to the next listening scene. It is monitored whether or not the skip operation has been performed by operating the above-described skip button 3 (step S104. NO at step S104). When the skip operation is performed in the monitoring of step S104 (step S104: YES), the listening step processing unit 10 proceeds to step S105 described later.

そして、上記ステップS103が実行されるか、又は上記ステップS104の監視において上記スキップ操作が行われた場合(ステップS104:YES)、リスニングステップ処理部10は、リスニングステップとして予め設定されたシーン数(第1実施形態の場合は四)だけリスニングシーン(即ち上記ステップS100乃至ステップS104)が繰り返されたか否かを判定する(ステップS105)。ステップS105の判定において、既定のシーン数が繰り返されていない場合(ステップS105:NO)、リスニングステップ処理部10は、リスニングステップとして予め設定されている次のリスニングシーンに切り換え(ステップS106)、当該切り換えられた次のリスニングシーンについて、上記ステップS100乃至上記ステップS105を繰り返す。ここで、第1実施形態に係るリスニングステップは、図6に例示するように、図5を用いて説明し且つ画像GS11並びに二つの英文ST111及び英文ST112からなる第1リスニングシーン(図6(a)参照)、図6(b)に例示する画像GS12並びに二つの英文ST121及び英文ST122からなる第2リスニングシーン、図6(c)に例示する画像GS13並びに二つの英文ST131及び英文ST132からなる第3リスニングシーン、及び図6(d)に例示する画像GS14並びに二つの英文ST141及び英文ST142からなる第4リスニングシーンから構成されている。そしてそれぞれのリスニングシーンが実行される際の上記ステップS100及び上記ステップS101では、図6(a)乃至図6(d)に例示するように、各英文ST121等の英文カラオケ様表示及び英語音読出力がそれぞれのリスニングシーンごとに実行される。   Then, when step S103 is performed or when the skip operation is performed in the monitoring of step S104 (step S104: YES), the listening step processing unit 10 sets the number of scenes preset as the listening step ( In the case of the first embodiment, it is determined whether or not the listening scene (ie, the above steps S100 to S104) has been repeated by 4) (step S105). If it is determined in step S105 that the predetermined number of scenes has not been repeated (step S105: NO), the listening step processing unit 10 switches to the next listening scene preset as the listening step (step S106), The above steps S100 to S105 are repeated for the next switched listening scene. Here, as illustrated in FIG. 6, the listening step according to the first embodiment will be described with reference to FIG. 5 and a first listening scene (FIG. 6 (a)) including the image GS11 and two English ST111 and two English ST112. 6), the second listening scene consisting of two English sentences ST121 and ST122, the image GS13 exemplified in FIG. 6 (c) and the second listening scene consisting of two English sentences ST131 and ST132). 3 listening scene, and an image GS 14 illustrated in FIG. 6D, and a fourth listening scene consisting of two English ST 141 and English ST 142. And in the above-mentioned step S100 and the above-mentioned step S101 at the time of each listening scene being executed, as shown in FIG. 6 (a) to FIG. Is performed for each listening scene.

図4に戻り、ステップS105の判定において、既定のシーン数が繰り返された場合(ステップS105:YES)、リスニングステップ処理部10は、上記四つのリスニングシーン間で同一である上記文法関係についての解説を、図6(e)に例示する解説Cmとして、ディスプレイ4上に表示する。この解説Cm用のデータ(文字データ)も、上記ステップS2において予め取得されているものが用いられる。その後リスニングステップ処理部10は、第1実施形態に係るリスニングステップを終了し、これにより処理部1は、次の第1実施形態に係るリピートステップに移行する。   Returning to FIG. 4, when the predetermined number of scenes is repeated in the determination of step S105 (step S105: YES), the listening step processing unit 10 explains the above-mentioned grammatical relationship which is the same among the four listening scenes. Are displayed on the display 4 as the comment Cm illustrated in FIG. The data (character data) for the explanation Cm is also used as previously acquired in step S2. Thereafter, the listening step processing unit 10 ends the listening step according to the first embodiment, whereby the processing unit 1 shifts to the repeat step according to the next first embodiment.

なお、図4乃至図6を用いて説明したリスニングステップでは、一つのリスニングシーンについてステップS100及びステップS101が終了した後にステップS102のリトライ操作の有無を監視したが、これ以外に、ステップS100が終了した後に当該ステップS100についてのリトライ操作の有無を監視し、更に、ステップS101が終了した後に当該ステップS101についてのリトライ操作の有無を監視するように構成してもよい。   In the listening step described with reference to FIGS. 4 to 6, although the presence or absence of the retry operation in step S102 is monitored after steps S100 and S101 end for one listening scene, step S100 ends other than this. After that, the presence or absence of the retry operation at the step S100 may be monitored, and furthermore, the presence or absence of the retry operation at the step S101 may be monitored after the step S101 is completed.

(iv)第1実施形態に係るリピートステップについて
次に、上記リピートステップ処理部11を中心として実行される、第1実施形態に係るリピートステップ(図3ステップS20参照)について、より具体的に図7及び図8を用いて説明する。なお、図7は当該リピートステップの内容を示すフローチャートであり、図8は当該リピートステップにおいて表示される画像例を示す図である。
(Iv) Next, with regard to the repeat step according to the first embodiment, a diagram more specifically for the repeat step according to the first embodiment (see step S20 in FIG. 3) to be executed centering on the repeat step processing unit 11 It demonstrates using FIG. 7 and FIG. FIG. 7 is a flowchart showing the contents of the repeat step, and FIG. 8 is a view showing an example of an image displayed in the repeat step.

図7に示すように、第1実施形態に係るリピートステップ(図3ステップS20参照)としてリピートステップ処理部11は、先ず、上記ステップS2で取得されていた画像データGD及びシーンデータQDを用いて、第1リピートシーンに相当する第一の英文としての英文ST211の英語音読音声の出力及び英文カラオケ様表示を行う(ステップS200)。この場合の画像データGD及びシーンデータQDは、上記リスニングステップにおいて用いたものと同様の画像データGD及びシーンデータQDである。そしてステップS200としてリピートステップ処理部11は、図8(a)に例示するように、その内容として上記第1リスニングシーンと同様の画像GS21の表示及び英文ST211の英文カラオケ様表示を行いつつ、英文ST211の英語音読音声の出力を行う。この場合の英文ST211の英文カラオケ様表示でも、上記リスニングステップの場合と同様に、それが対応する文法関係としてユーザに注意喚起されるべき単語が、それを強調するように他の単語とは異なる斜体字及び異なる表示色で表示される。また、第1リピートシーンに相当する第二の英文としての英文ST212は、これも上記リスニングステップと同様に英文ST211に対して視認性が低くなるように、英文ST211と共にディスプレイ4に表示される。   As shown in FIG. 7, as the repeat step (see step S20 in FIG. 3) according to the first embodiment, the repeat step processing unit 11 first uses the image data GD and the scene data QD acquired in step S2. Then, the output of English reading speech of English ST 211 as the first English equivalent to the first repeat scene and English karaoke like display are performed (step S 200). Image data GD and scene data QD in this case are image data GD and scene data QD similar to those used in the above-mentioned listening step. Then, as exemplified in FIG. 8A, the repeat step processing unit 11 displays the image GS21 similar to the above first listening scene and the English karaoke like display of ST211 in English, as shown in FIG. 8A in step S200. Output the English reading speech of ST211. In this case, even in the English karaoke-like display of English ST211 in this case, as in the case of the above-mentioned listening step, the word to be alerted to the user as the corresponding grammatical relation is different from other words to emphasize it. It is displayed in italics and different display colors. Also, the English sentence ST212 as the second English sentence corresponding to the first repeat scene is displayed on the display 4 together with the English sentence ST211 so that the visibility with respect to the English sentence ST211 is low similarly to the listening step.

上記ステップS200が終了したら、次にリピートステップ処理部11は、ステップS200で出力された英語音読音声に倣って同じ英語音声を発音する旨の発音指示音声をスピーカ7から出力する(ステップS201)。そしてリピートステップ処理部11は、図8(b)に例示するように、上記英文ST211の英文カラオケ様表示に加えて例えば全体のトーンを薄くした画像GS21wの表示を行う(ステップS202)。このステップS202としては、英文ST211の英語音読音声の出力は行われない。これにより、当該ステップS202が実行されている間、端末装置Tのユーザは、ステップS200で出力された英語音読音声のリピート(復唱)を行うことになる。   When the above step S200 is completed, next, the repeat step processing unit 11 outputs from the speaker 7 a sound generation instruction sound indicating that the same English sound is to be produced in conformity with the English speech read sound output in the step S200 (step S201). Then, as shown in FIG. 8B, the repeat step processing unit 11 displays, for example, an image GS21 w in which the entire tone is thinned in addition to the display of the English karaoke like the above-mentioned English ST 211 (step S202). In this step S202, the output of the English reading speech in English ST211 is not performed. Thus, while the step S202 is being performed, the user of the terminal device T repeats (replays) the English reading speech output in the step S200.

その後リピートステップ処理部10は、上記ステップS200乃至上記ステップS202が再度実行されることを望むユーザが操作部3の上記リトライボタンを操作してリトライ操作を行ったか否かを監視する(ステップS203)。ステップS203の監視においてリトライ操作が行われた場合(ステップS203:YES)、リピートステップ処理部11は上記ステップS200に戻って、当該ステップS200乃至上記ステップS203を再度実行する。   Thereafter, the repeat step processing unit 10 monitors whether the user desiring to execute the steps S200 to S202 again operates the retry button of the operation unit 3 to perform the retry operation (step S203). . If a retry operation is performed in the monitoring of step S203 (step S203: YES), the repeat step processing unit 11 returns to step S200 and executes step S200 to step S203 again.

一方ステップS203の監視においてリトライ操作が例えば予め設定された待機時間内に行われない場合(ステップS203:NO)、リピートステップ処理部11は次に、上記画像データGD及びシーンデータQDを用いて、第1リピートシーンに相当する第二の英文としての英文ST212(図8(a)参照)の英語音読音声の出力及び英文カラオケ様表示を行う(ステップS204)。この場合の画像データGD及びシーンデータQDも、上記リスニングステップにおいて用いたものと同様の画像データGD及びシーンデータQDである。そしてステップS204としてリピートステップ処理部11は、その内容として上記第1リスニングシーンと同様の画像GS21の表示及び英文ST212の英文カラオケ様表示を行いつつ、英文ST212の英語音読音声の出力を行う。   On the other hand, if a retry operation is not performed, for example, within a preset waiting time in the monitoring of step S203 (step S203: NO), repeat step processing unit 11 next uses image data GD and scene data QD. The output of the English reading speech of English ST 212 (see FIG. 8A) as the second English corresponding to the first repeat scene and English karaoke-like display are performed (step S 204). Image data GD and scene data QD in this case are also image data GD and scene data QD similar to those used in the above-mentioned listening step. Then, in step S204, the repeat step processing unit 11 outputs the English sound reading voice of English ST212 while displaying the image GS21 similar to the first listening scene and displaying the English karaoke like English ST212 as its contents.

上記ステップS204が終了したら、次にリピートステップ処理部11は、上記ステップS205と同様の発音指示音声をスピーカ7から出力する(ステップS205)。そしてリピートステップ処理部11は、上記英文ST212の英文カラオケ様表示に加えて例えば全体のトーンを薄くした画像GS21wの表示を行う(ステップS206)。このステップS206としては、英文ST212の英語音読音声の出力は行われない。これにより、当該ステップS206が実行されている間、端末装置Tのユーザは、ステップS206で出力された英語音読音声のリピートを行うことになる。   When the above step S204 is completed, next, the repeat step processing unit 11 outputs, from the speaker 7, a sound generation instruction sound similar to the above step S205 (step S205). Then, the repeat step processing unit 11 displays, for example, an image GS21 w in which the entire tone is thinned in addition to the display of English karaoke like the above-mentioned English ST 212 (step S206). In this step S206, the output of the English reading speech in English ST212 is not performed. Thereby, while the said step S206 is performed, the user of the terminal device T will repeat the English reading speech output by step S206.

その後リピートステップ処理部10は、上記ステップS204乃至上記ステップS206が再度実行されることを望むユーザがリトライ操作を行ったか否かを監視する(ステップS207)。ステップS207の監視においてリトライ操作が行われた場合(ステップS207:YES)、リピートステップ処理部11は上記ステップS204に戻って、当該ステップS204乃至上記ステップS207を再度実行する。   Thereafter, the repeat step processing unit 10 monitors whether or not the user desiring to execute steps S204 to S206 again performs a retry operation (step S207). When a retry operation is performed in the monitoring of step S207 (step S207: YES), the repeat step processing unit 11 returns to step S204 and executes step S204 to step S207 again.

一方、上記ステップS200乃至上記ステップS207の実行と並行して、リピートステップ処理部11は、ステップS200乃至ステップS203を実行中においては上記英文ST211の和訳文を、ステップS204乃至ステップS207を実行中においては上記英文ST212の和訳文を、それぞれディスプレイ4に表示し(ステップS208)、その後後述するステップS210に移行する。   On the other hand, in parallel with the execution of the steps S200 to S207, the repeat step processing unit 11 performs a Japanese translation of the English sentence ST211 while executing the steps S200 to S203 and executes the steps S204 to S207. In step S208, the Japanese translation of English ST212 is displayed on the display 4 (step S208), and the process proceeds to step S210 described later.

更にリピートステップ処理部11は、上記ステップS200乃至上記ステップS207の実行と並行して、当該ステップS200乃至当該ステップS207を最後まで実行せずに次のリピートシーンに進むことを望むユーザが操作部3の上記スキップボタンを操作してスキップ操作を行ったか否かを監視する(ステップS209。ステップS209:NO。)。ステップS209の監視においてスキップ操作が行われた場合(ステップS209:YES)、リピートステップ処理部11は後述するステップS210に移行する。   Furthermore, the repeat step processing unit 11 controls the operation unit 3 by the user who wants to proceed to the next repeat scene without executing the steps S200 to S207 in parallel with the execution of the steps S200 to S207. It is monitored whether or not the skip operation is performed by operating the above-described skip button (step S209. NO at step S209). When the skip operation is performed in the monitoring of step S209 (step S209: YES), the repeat step processing unit 11 proceeds to step S210 described later.

次に、上記ステップS208が実行されつつ上記ステップS207の監視においてリトライ操作が例えば予め設定された待機時間内に行われないか(ステップS207:NO)、又は上記ステップS209の監視においてスキップ操作が行われた場合(ステップS209:YES)、リピートステップ処理部11は、リピートステップとして予め設定されたシーン数(第1実施形態の場合は四)だけリピートシーン(即ち上記ステップS200乃至ステップS209)が繰り返されたか否かを判定する(ステップS210)。ステップS210の判定において、既定のシーン数が繰り返されていない場合(ステップS210:NO)、リピートステップ処理部11は、リピートステップとして予め設定されている次のリピートシーンに切り換え(ステップS211)、当該切り換えられた次のリピートシーンについて、上記ステップS200乃至上記ステップS210を繰り返す。   Next, while the step S208 is being executed, whether the retry operation is not performed within the waiting time set in advance, for example, in the monitoring of the step S207 (step S207: NO), or the skip operation is performed during the monitoring of the step S209. (Step S209: YES), the repeat step processing unit 11 repeats repeat scenes (that is, the above steps S200 to S209) by the number of scenes (four in the first embodiment) set in advance as repeat steps. It is determined whether or not it has been received (step S210). If it is determined in step S210 that the predetermined number of scenes is not repeated (step S210: NO), the repeat step processing unit 11 switches to the next repeat scene preset as the repeat step (step S211), The above-described steps S200 to S210 are repeated for the next repeated scene that has been switched.

ここで、第2実施形態に係るリピートステップは、図8に例示するように、画像GS21並びに二つの英文ST211及び英文ST212からなる第1リピートシーン(図8(a)参照)、図8(c)に例示する画像GS22並びに二つの英文ST221及び英文ST222からなる第2リスニングシーン、並びに、リスニングステップにおける図6(c)及び図6(d)を用いて例示した画像及び二つの英文と同様の画像及び二つの英文からそれぞれなる第3リピートシーン及び第4リピートシーンから構成されている。そしてそれぞれのリピートシーンが実行される際の上記ステップS200乃至上記ステップS207では、図8(a)乃至図8(d)に例示するように、各英文ST211等の英文カラオケ様表示等がそれぞれのリピートシーンごとに実行される。このとき、第2リピートシーンとして端末装置Tのユーザに上記リピートを行わせる際(上記ステップS202又は上記ステップS206参照)には、リピートステップ処理部11は、図8(d)に例示するように、英文ST221の英文カラオケ様表示(ステップS202の場合)又は英文222の英文カラオケ様表示(ステップS206の場合)に加えて、例えば全体のトーンを薄くした画像GS22wの表示を行う。   Here, the repeat step according to the second embodiment is, as exemplified in FIG. 8, a first repeat scene (see FIG. 8A) including an image GS21 and two English ST211 and English ST212, and FIG. And a second listening scene consisting of two English ST221 and two English ST222, and the same image as the two English sentences illustrated in FIGS. 6 (c) and 6 (d) in the listening step. It consists of a third repeat scene and a fourth repeat scene consisting of an image and two English sentences, respectively. Then, in steps S200 to S207 when the respective repeat scenes are executed, as shown in FIG. 8A to FIG. 8D, the English karaoke like display such as each English ST211 etc. It is executed for each repeat scene. At this time, when causing the user of the terminal apparatus T to perform the repeat as the second repeat scene (see step S202 or step S206), the repeat step processing unit 11 exemplifies as shown in FIG. In addition to the English karaoke-like display of English ST221 (in the case of step S202) or the English karaoke-like display of English 222 (in the case of step S206), for example, the image GS22w in which the entire tone is lightened is displayed.

図7に戻り、ステップS210の判定において、既定のシーン数が繰り返された場合(ステップS210:YES)、リピートステップ処理部11は、上記四つのリピートシーン間で同一である上記文法関係についての解説(即ち、リスニングステップに対応する文法関係と同様の文法関係についての解説)を、図8(e)に例示する解説Cmとして、ディスプレイ4上に表示する(ステップS212)。この解説Cm用のデータ(文字データ)も、リスニングステップの場合と同様に上記ステップS2において予め取得されているものが用いられる。その後リピートステップ処理部11は、第1実施形態に係るリピートステップを終了し、これにより処理部1は、次の第1実施形態に係るレコードステップに移行する。   Referring back to FIG. 7, when the predetermined number of scenes is repeated in the determination of step S210 (step S210: YES), the repeat step processing unit 11 interprets the grammatical relationship which is the same among the four repeat scenes. (Ie, an explanation of the same grammatical relationship as the grammatical relationship corresponding to the listening step) is displayed on the display 4 as a comment Cm illustrated in FIG. 8E (step S212). The data (character data) for the explanation Cm is also used in the same manner as in the case of the listening step, which is acquired in advance in the step S2. Thereafter, the repeat step processing unit 11 ends the repeat step according to the first embodiment, whereby the processing unit 1 shifts to the record step according to the next first embodiment.

(v)第1実施形態に係るレコードステップについて
次に、上記レコードステップ処理部12を中心として実行される、第1実施形態に係るレコードステップ(図3ステップS30参照)について、より具体的に図9及び図10を用いて説明する。なお、図9は当該レコードステップの内容を示すフローチャートであり、図10は当該レコードステップにおいて表示される画像例を示す図である。
(V) Next, with regard to the record step according to the first embodiment, the figure more specifically shows the record step according to the first embodiment (refer to step S30 in FIG. 3) to be executed centering on the record step processing unit 12 It demonstrates using 9 and FIG. FIG. 9 is a flowchart showing the contents of the record step, and FIG. 10 is a view showing an example of an image displayed in the record step.

図9に示すように、第1実施形態に係るレコードステップ(図3ステップS30参照)としてレコードステップ処理部12は、先ず、上記ステップS2で取得されていた画像データGD及びシーンデータQDを用いて、第1レコードシーンに相当する第一の英文としての英文ST311の英語音読音声の出力及び英文カラオケ様表示を行う(ステップS300)。この場合の画像データGD及びシーンデータQDは、上記リスニングステップ及び上記リピートステップにおいて用いたものと同様の画像データGD及びシーンデータQDである。そしてステップS300としてレコードステップ処理部12は、図9(a)に例示するように、その内容として上記第1リスニングシーン又は上記第1リピートシーンと同様の画像GS31の表示及び英文ST311の英文カラオケ様表示を行いつつ、英文ST311の英語音読音声の出力を行う。この場合の英文ST311の英文カラオケ様表示でも、上記リスニングステップ及び上記リピートステップの場合と同様に、それが対応する文法関係としてユーザに注意喚起されるべき単語が、それを強調するように他の単語とは異なる斜体字及び異なる表示色で表示される。また、第1レコードシーンに相当する第二の英文としての英文ST312は、これも上記リスニングステップ及び上記リピートステップと同様に英文ST311に対して視認性が低くなるように、英文ST311と共にディスプレイ4に表示される。   As shown in FIG. 9, as the record step (see step S30 in FIG. 3) according to the first embodiment, the record step processing unit 12 first uses the image data GD and the scene data QD acquired in the step S2. Then, the output of English reading speech of English ST 311 as the first English equivalent to the first record scene and English karaoke like display are performed (step S 300). Image data GD and scene data QD in this case are image data GD and scene data QD similar to those used in the listening step and the repeat step. Then, the record step processing unit 12 displays the image GS31 similar to the first listening scene or the first repeat scene as its contents as shown in FIG. While displaying, output the English reading speech of English ST311. In this case, as in the case of the English karaoke like display of English ST311 in this case, as in the case of the listening step and the repeating step, the word that should be alerted to the user as the corresponding grammatical relation emphasizes it. The words are displayed in different italics and different display colors. Also, the English sentence ST312 as the second English sentence corresponding to the first record scene is displayed on the display 4 together with the English sentence ST311 so that the visibility with respect to the English sentence ST311 becomes low similarly to the listening step and the repeat step. Is displayed.

上記ステップS300が終了したら、次にレコードステップ処理部12は、ステップS300で出力された英語音読音声に倣った自らの英語音声を録音して再生することを望むユーザが操作部3の上記録音ボタンを操作して録音操作を行ったか否かを監視する(ステップS301)。ステップS301の監視において録音操作が行われない場合(ステップS301:NO)、レコードステップ処理部12は次に、上記ステップS300を実行してから予め設定された待機時間が経過したか否かを判定する(ステップS302)。そしてステップS302の判定において当該待機時間が経過していない場合(ステップS302:NO)、レコードステップ処理部12は上記ステップS301に戻って録音操作の実行を判定する。一方ステップS302の判定において上記待機時間が経過した場合(ステップS302:YES)、レコードステップ処理部12は上記ステップS300に戻って当該ステップS300を繰り返す。   When the above step S300 is completed, the record step processing unit 12 next records the above-mentioned recording button of the operation unit 3 for the user who wants to record and reproduce his / her English voice following the English reading voice output in step S300. To monitor whether the recording operation has been performed (step S301). When the recording operation is not performed in the monitoring of step S301 (step S301: NO), next, the record step processing unit 12 determines whether or not the standby time set in advance has passed since the execution of the step S300. (Step S302). If it is determined in step S302 that the standby time has not elapsed (step S302: NO), the record step processing unit 12 returns to step S301 to determine execution of the recording operation. On the other hand, when the waiting time has elapsed in the determination of step S302 (step S302: YES), the record step processing unit 12 returns to the step S300 and repeats the step S300.

他方、ステップS301の監視において録音操作が行われた場合(ステップS301:YES)、レコードステップ処理部12は録音操作の直後から発音されているであろうユーザの英語音声を、マイク8を介して集音し、更に当該集音結果としての音声信号を予め設定された汎用の音声ファイル形式を用いて例えば記録部5に一時的に記録する(ステップS303)。このステップS303を実行中にレコードステップ処理部12は、図10(b)に例示するように、上記英文ST311の英文カラオケ様表示に加えて例えば全体のトーンを濃くした画像GS31dを、音声の時間軸に沿った波形を模した図形を重畳させてディスプレイ4に表示する。これにより、当該ステップS303を実行しているユーザは、自身の音声が録音されていることを直感的に認識することができる。   On the other hand, when the recording operation is performed in the monitoring of step S301 (step S301: YES), the record step processing unit 12 uses the microphone 8 to speak the English voice of the user who will be pronounced immediately after the recording operation. The sound is collected, and an audio signal as the sound collection result is temporarily recorded, for example, in the recording unit 5 using a general-purpose audio file format set in advance (step S303). During execution of step S303, the record step processing unit 12 adds, for example, the image GS31d in which the entire tone is darkened, to the English karaoke-like display of the above-described English ST311, as illustrated in FIG. A graphic imitating a waveform along an axis is superimposed and displayed on the display 4. Thereby, the user executing the step S303 can intuitively recognize that his / her voice is recorded.

次にレコードステップ処理部12は、ステップS303が終了してから予め設定された時間が経過した後、当該ステップS303で録音したユーザの英語音声を再生する(ステップS304)。その後更にレコードステップ処理部12は、上記ステップS300と同様に、上記英文ST311の英語音読音声の出力及び英文カラオケ様表示を再度行う(ステップS305)。以上のステップS304及びステップS305の実行により、ステップS303で録音された自身の英語音声(ステップS304)を正しい英語音声(ステップS305)と比較することで、正しい発音を身につけることができる。   Next, after a predetermined time has elapsed since the end of step S303, the record step processing unit 12 reproduces the English voice of the user recorded in step S303 (step S304). After that, the record step processing unit 12 again performs the output of the English reading speech of the English sentence ST 311 and the English karaoke like display again as in the above step S 300 (step S 305). By executing the above steps S304 and S305, the correct pronunciation can be acquired by comparing the own English voice (step S304) recorded in step S303 with the correct English voice (step S305).

その後レコードステップ処理部12は、上記ステップS300乃至上記ステップS306が再度実行されることを望むユーザが操作部3の上記リトライボタンを操作してリトライ操作を行ったか否かを監視する(ステップS306)。ステップS306の監視においてリトライ操作が行われた場合(ステップS306:YES)、レコードステップ処理部12は上記ステップS300に戻って、当該ステップS300乃至上記ステップS306を再度実行する。   Thereafter, the record step processing unit 12 monitors whether or not the user desiring to execute the steps S300 to S306 again operates the retry button of the operation unit 3 to perform the retry operation (step S306). . When a retry operation is performed in the monitoring of step S306 (step S306: YES), the record step processing unit 12 returns to step S300 and executes step S300 to step S306 again.

一方ステップS306の監視においてリトライ操作が例えば予め設定された待機時間内に行われない場合(ステップS306:NO)、レコードステップ処理部12は次に、上記画像データGD及びシーンデータQDを用いて、第1レコードシーンに相当する第二の英文としての英文ST312(図10(a)参照)の英語音読音声の出力及び英文カラオケ様表示を行う(ステップS307)。この場合の画像データGD及びシーンデータQDも、上記リスニングステップ及び上記リピートステップにおいて用いたものと同様の画像データGD及びシーンデータQDである。そしてステップS307としてレコードステップ処理部12は、その内容として上記第1レコードシーンと同様の画像GS31の表示及び英文ST312の英文カラオケ様表示を行いつつ、英文ST312の英語音読音声の出力を行う。   On the other hand, when the retry operation is not performed within the waiting time set in advance, for example, in the monitoring of step S306 (step S306: NO), the record step processing unit 12 next uses the image data GD and the scene data QD. Output of English reading speech and English karaoke like display of English ST 312 (see FIG. 10A) as a second English corresponding to the first record scene are performed (step S307). The image data GD and the scene data QD in this case are also image data GD and scene data QD similar to those used in the listening step and the repeating step. Then, in step S307, the record step processing unit 12 outputs the English sound reading voice of English ST312 while displaying the image GS31 similar to the first record scene and displaying the English karaoke like English ST312 as its contents.

上記ステップS307が終了したら、次にレコードステップ処理部12は、ステップS307で出力された英語音読音声に倣った自らの英語音声を録音して再生することを望むユーザが操作部3の上記録音ボタンを操作して録音操作を行ったか否かを監視する(ステップS308)。ステップS308の監視において録音操作が行われない場合(ステップS308:NO)、レコードステップ処理部12は次に、上記ステップS307を実行してから予め設定された待機時間が経過したか否かを判定する(ステップS309)。そしてステップS309の判定において当該待機時間が経過していない場合(ステップS309:NO)、レコードステップ処理部12は上記ステップS307に戻って上記録音操作の実行を判定する。一方ステップS309の判定において上記待機時間が経過した場合(ステップS309:YES)、レコードステップ処理部12は上記ステップS307に戻って当該ステップS307を繰り返す。   When step S307 is completed, the record step processing unit 12 next records the above-mentioned recording button of the operation unit 3 for the user who wants to record and reproduce his / her English voice following the English reading voice output in step S307. To monitor whether the recording operation has been performed (step S308). When the recording operation is not performed in the monitoring of step S308 (step S308: NO), next, the record step processing unit 12 determines whether or not the standby time set in advance has passed since the execution of step S307. (Step S309). If it is determined in step S309 that the standby time has not elapsed (step S309: NO), the record step processing unit 12 returns to step S307 to determine execution of the recording operation. On the other hand, when the waiting time has elapsed in the determination of step S309 (step S309: YES), the record step processing unit 12 returns to the step S307 and repeats the step S307.

他方、ステップS308の監視において録音操作が行われた場合(ステップS308:YES)、レコードステップ処理部12は録音操作の直後から発音されているであろうユーザの英語音声を、マイク8を介して集音し、更に当該集音結果としての音声信号を上記ステップS303と同様にして例えば記録部5に一時的に記録する(ステップS310)。このステップS310を実行中にレコードステップ処理部12は、上記英文ST312の英文カラオケ様表示に加えて例えば全体のトーンを濃くした画像GS31dを、音声の時間軸に沿った波形を模した図形を重畳させてディスプレイ4に表示する。これにより、当該ステップS310を実行しているユーザは、上記ステップS303と同様に、自身の音声が録音されていることを直感的に認識することができる。次にレコードステップ処理部12は、ステップS310が終了してから予め設定された時間が経過した後、当該ステップS310で録音したユーザの英語音声を再生する(ステップS311)。その後更にレコードステップ処理部12は、上記ステップS307と同様に、上記英文ST312の英語音読音声の出力及び英文カラオケ様表示を再度行う(ステップS312)。以上のステップS311及びステップS312の実行により、ステップS310で録音された自身の英語音声(ステップS311)を正しい英語音声(ステップS312)と比較することで、正しい発音を身につけることができる。   On the other hand, when the recording operation is performed in the monitoring of step S308 (step S308: YES), the record step processing unit 12 uses the microphone 8 to speak the English voice of the user who will be pronounced immediately after the recording operation. The sound is collected, and an audio signal as the sound collection result is temporarily recorded, for example, in the recording unit 5 in the same manner as the step S303 (step S310). During the execution of step S310, the record step processing unit 12 superimposes, for example, an image GS31d in which the entire tone is darkened in addition to the English karaoke-like display of the above-mentioned English ST312, a graphic imitating a waveform along the audio time axis The display 4 is displayed. Thus, the user who is executing step S310 can intuitively recognize that his / her voice is being recorded, as in step S303. Next, after a predetermined time has elapsed since the end of step S310, the record step processing unit 12 reproduces the English voice of the user recorded in step S310 (step S311). Thereafter, the record step processing unit 12 again performs the output of the English reading speech of the English sentence ST 312 and the English karaoke-like display as in the case of the step S 307 (step S 312). By executing the above steps S311 and S312, it is possible to acquire correct pronunciation by comparing the own English voice (step S311) recorded in step S310 with the correct English voice (step S312).

その後レコードステップ処理部12は、上記ステップS307乃至上記ステップS312が再度実行されることを望むユーザが操作部3の上記リトライボタンを操作してリトライ操作を行ったか否かを監視する(ステップS313)。ステップS313の監視においてリトライ操作が行われた場合(ステップS313:YES)、レコードステップ処理部12は上記ステップS307に戻って、当該ステップS307乃至上記ステップS313を再度実行する。   Thereafter, the record step processing unit 12 monitors whether or not the user desiring that the steps S307 to S312 are to be executed again performs the retry operation by operating the retry button of the operation unit 3 (step S313). . When a retry operation is performed in the monitoring of step S313 (step S313: YES), the record step processing unit 12 returns to step S307 and executes step S307 to step S313 again.

一方レコードステップ処理部12は、上記ステップS300乃至上記ステップS313の実行と並行して、当該ステップS300乃至当該ステップS313を最後まで実行せずに次のレコードシーンに進むことを望むユーザが操作部3の上記スキップボタンを操作してスキップ操作を行ったか否かを監視する(ステップS317。ステップS317:NO。)。ステップS317の監視においてスキップ操作が行われた場合(ステップS317:YES)、レコードステップ処理部12は後述するステップS314に移行する。   On the other hand, in parallel with the execution of the steps S300 to S313, the record step processor 12 does not execute the steps S300 to S313 until the end, and the user wishes to proceed to the next record scene. It is monitored whether or not the skip operation has been performed by operating the above-described skip button (step S317; step S317: NO). When the skip operation is performed in the monitoring of step S317 (step S317: YES), the record step processing unit 12 proceeds to step S314 described later.

他方ステップS313の監視においてリトライ操作が例えば予め設定された待機時間内に行われないか(ステップS313:NO)、又は上記ステップS317の監視において上記スキップ操作が行われた場合(ステップS317:YES)、レコードステップ処理部12は、レコードステップとして予め設定されたシーン数(第1実施形態の場合は四)だけレコードシーン(即ち上記ステップS300乃至ステップS313及びステップS317)が繰り返されたか否かを判定する(ステップS314)。ステップS314の判定において、既定のシーン数が繰り返されていない場合(ステップS314:NO)、レコードステップ処理部12は、レコードステップとして予め設定されている次のレコードシーンに切り換え(ステップS315)、当該切り換えられた次のレコードシーンについて、上記ステップS300乃至上記ステップS313及びステップS317を繰り返す。   On the other hand, if the retry operation is not performed, for example, within a preset waiting time in the monitoring of step S313 (step S313: NO), or the skip operation is performed in the monitoring of step S317 (step S317: YES) The record step processing unit 12 determines whether or not the record scenes (that is, the steps S300 to S313 and step S317) are repeated by the number of scenes (four in the first embodiment) set in advance as the record steps. (Step S314). If it is determined in step S314 that the predetermined number of scenes is not repeated (step S314: NO), the record step processing unit 12 switches to the next record scene preset as the record step (step S315), The above steps S300 to S313 and step S317 are repeated for the next record scene switched.

ここで、第1実施形態に係るレコードステップは、図10に例示するように、画像GS31並びに二つの英文ST311及び英文ST312からなる第1レコードシーン(図10(a)参照)、図10(c)に例示する画像GS32並びに二つの英文ST321及び英文ST322からなる第2レコードシーン、並びに、例えばリスニングステップにおける図6(c)及び図6(d)を用いて例示した画像及び二つの英文と同様の画像及び二つの英文からそれぞれなる第3レコードシーン及び第4レコードシーンから構成されている。そしてそれぞれのレコードシーンが実行される際の上記ステップS300乃至上記ステップS313では、図10(a)乃至図10(d)に例示するように、各英文ST311等の英文カラオケ様表示等がそれぞれのレコードシーンごとに実行される。このとき、第2レコードシーンとして端末装置Tのユーザに自身の音声の録音を行わせる際(上記ステップS303又は上記ステップS310参照)には、レコードステップ処理部12は、図10(d)に例示するように、英文ST321の英文カラオケ様表示(ステップS303の場合)又は英文ST322の英文カラオケ様表示(ステップS310の場合)に加えて、例えば全体のトーンを濃くした画像GS32dを、音声の時間軸に沿った波形を模した図形を重畳させてディスプレイ4に表示する。   Here, the record step according to the first embodiment is, as illustrated in FIG. 10, a first record scene (see FIG. 10A) including an image GS 31 and two English ST 311 and two English ST 312; And the second record scene consisting of two English ST 321 and English ST 322, and, for example, the same image as the one illustrated in FIG. 6 (c) and FIG. 6 (d) in the listening step and the two English sentences. The third record scene and the fourth record scene, each consisting of an image of and two English sentences. Then, in steps S300 to S313 when each record scene is executed, as shown in FIGS. 10 (a) to 10 (d), English karaoke-like displays such as English sentences ST311 etc. Executed for each record scene. At this time, when making the user of the terminal device T record the voice of the user as the second record scene (see the above step S303 or the above step S310), the record step processing unit 12 exemplifies as shown in FIG. In addition to the English karaoke-like display of English ST321 (in the case of step S303) or the English karaoke-like display of English ST322 (in the case of step S310), for example, the image GS32d in which the entire tone is darkened is Are superimposed on each other and displayed on the display 4.

図9に戻り、ステップS314の判定において、既定のシーン数が繰り返された場合(ステップS314:YES)、レコードステップ処理部12は、上記四つのレコードシーンが終了したことを労う労い情報として、例えば「Good Job!」の文字をディスプレイ4上に表示すると共に、当該「Good Job!」の音声をスピーカ7から出力する(ステップS316)。その後レコードステップ処理部12は、第1実施形態に係るレコードステップを終了し、これにより処理部1は、次の第1実施形態に係るトランスレーションステップに移行する。   Returning to FIG. 9, if it is determined in step S314 that the predetermined number of scenes has been repeated (step S314: YES), the record step processing unit 12 uses the end of the four record scenes as labor information. For example, the characters "Good Job!" Are displayed on the display 4, and the sound of "Good Job!" Is output from the speaker 7 (step S316). Thereafter, the record step processing unit 12 ends the record step according to the first embodiment, whereby the processing unit 1 shifts to the translation step according to the next first embodiment.

なお、上述したレコードステップでは、ステップS304とステップS305とを、それぞれ別個に時間を分けて実行する構成としたが、これ以外に、ステップS304としてのユーザの英語音声の再生と並行して、ステップS305としての英語音読音声の出力及び英文カラオケ様表示を行うように構成することもできる。この場合に、ステップS304としてのユーザの英語音声の再生の開始タイミングと同時にステップS305としての英語音読音声の出力及び英文カラオケ様表示を開始するように構成してもよいし、又は、ステップS304としてのユーザの英語音声の再生の開始タイミングから少し遅らせてステップS305としての英語音読音声の出力及び英文カラオケ様表示を開始するように構成してもよい。更にこれと同様に、レコードステップのステップS311としてのユーザの英語音声を再生と並行して、ステップS312としての英語音読音声の出力及び英文カラオケ様表示を行うように構成することもできる。この場合にも、ステップS311としてのユーザの英語音声の再生の開始タイミングと同時にステップS312としての英語音読音声の出力及び英文カラオケ様表示を開始するように構成してもよいし、又は、ステップS311としてのユーザの英語音声の再生の開始タイミングから少し遅らせてステップS312としての英語音読音声の出力及び英文カラオケ様表示を開始するように構成してもよい。   In the above-described record step, step S304 and step S305 are separately executed separately, but in addition to this, in parallel with the reproduction of the English voice of the user as step S304, the step is performed. It is also possible to configure to output an English reading speech as S305 and to display English karaoke like. In this case, the output of the English reading voice and the English karaoke-like display as step S305 may be started simultaneously with the start timing of the reproduction of the English voice of the user as step S304, or as step S304. The output of the English reading voice and the display of the English karaoke like in step S305 may be started with a slight delay from the start timing of the reproduction of the English voice of the user. Furthermore, in the same manner as this, in parallel with the reproduction of the user's English speech as the step S311 of the record step, the output of the English speech reading speech as the step S312 and the English karaoke-like display can be performed. Also in this case, the output of the English reading voice and the English karaoke-like display as step S312 may be started simultaneously with the start timing of the reproduction of the English voice of the user as step S311, or step S311 It may be configured to start output of English reading speech and English karaoke-like display as step S312 slightly delayed from the start timing of reproduction of the user's English speech.

(vi)第1実施形態に係るトランスレーションステップについて
最後に、上記トランスレーションステップ処理部13を中心として実行される、第1実施形態に係るトランスレーションステップ(図3ステップS40参照)について、より具体的に図11乃至図13を用いて説明する。なお、図11は当該トランスレーションステップの内容を示すフローチャートであり、図12及び図13は当該トランスレーションステップにおいて表示される画像例をそれぞれ示す図である。
(Vi) Regarding the translation step according to the first embodiment Finally, the translation step (see step S40 in FIG. 3) according to the first embodiment, which is executed centering on the translation step processor 13, is more specific This will be described using FIG. 11 to FIG. FIG. 11 is a flowchart showing the contents of the translation step, and FIGS. 12 and 13 are diagrams showing examples of images displayed in the translation step.

図11に示すように、第1実施形態に係るトランスレーションステップ(図3ステップS40参照)としてトランスレーションステップ処理部13は、先ず、上記ステップS2で取得されていた画像データGDと、上記シーンデータQDに含まれている各英文それぞれの和訳文のデータと、を用いて、第1トランスレーションシーンに相当する第一の英文としての英文ST41の和訳文ST41Jの表示を行う(ステップS400)。この場合の画像データGD及びシーンデータQDは、上記リスニングステップ乃至上記レコードステップにおいて用いたものと同様の画像データGD及びシーンデータQDである。そしてステップS400としてトランスレーションステップ処理部13は、図12(a)に例示するように、その内容として上記第1リスニングシーン乃至上記第1レコードシーンと同様の画像GS41の表示及び和訳文ST41Jの表示、並びに表示されている和訳文ST41Jの英訳の発音を促す英訳問題文QUの表示を行う。なおこのときの和訳文ST41Jでは、日本文としての通常の(自然な)句読点の位置ではなく、対応する英文における単語の区切りに相当する位置に読点が打たれている。より具体的に例えば、第1トランスレーションシーンに相当する第一の英文が「I know that she is cooking dinner for us.」である場合、それに対応する和訳文ST41Jは、図12(a)に例示するように「私は、彼女が、私達、のために、夕食を、作っていることを、知って、います。」である。   As shown in FIG. 11, as the translation step (see step S40 in FIG. 3) according to the first embodiment, the translation step processor 13 first receives the image data GD acquired in step S2 and the scene data Using the data of each Japanese translated sentence contained in the QD, the Japanese translated sentence ST41 J of the English sentence ST41 as the first English sentence corresponding to the first translation scene is displayed (step S400). The image data GD and the scene data QD in this case are image data GD and scene data QD similar to those used in the listening step to the recording step. Then, as illustrated in FIG. 12A, the translation step processing unit 13 displays the image GS41 similar to the above-mentioned first listening scene to the above-mentioned first record scene and the display of the Japanese translation sentence ST41J as step S400. , And displays the English translation problem sentence QU prompting the pronunciation of the English translation of the displayed Japanese translation sentence ST41J. In this case, in Japanese translation text ST41J at this time, a reading point is placed not at the position of a normal (natural) punctuation mark as a Japanese text but at a position corresponding to the word break in the corresponding English sentence. More specifically, for example, when the first English sentence corresponding to the first translation scene is "I know that she is cooking dinner for us.", The corresponding Japanese translation sentence ST41J is illustrated in FIG. 12 (a). As I do, "I know that she is making dinner for us,".

上記ステップS400が終了したら、次にトランスレーションステップ処理部13は、ステップS400で表示された和訳文ST41Jを英訳した英語音声の出力及び当該英訳の英文カラオケ様表示を行うこと(即ち、ステップS400で表示されている英訳問題文QUに対する解答の出力及び表示を行うこと)を望むユーザが、操作部3の上記解答確認操作ボタンを操作して解答確認操作を行ったか否かを監視する(ステップS401)。ステップS401の監視において上記解答確認操作が行われた場合(ステップS401:YES)、トランスレーションステップ処理部13は、後述するステップS406に移行する。一方ステップS401の監視において上記解答確認操作が行われない場合(ステップS401:NO)、次にトランスレーションステップ処理部13は、ステップS400で表示された和訳文ST41Jを英訳した自らの英語音声を録音して再生することを望むユーザが操作部3の上記録音ボタンを操作して録音操作を行ったか否かを監視する(ステップS402)。ステップS402の監視において録音操作が行われない場合(ステップS402:NO)、トランスレーションステップ処理部13は次に、上記ステップS400を実行してから予め設定された待機時間が経過したか否かを判定する(ステップS403)。そしてステップS403の判定において当該待機時間が経過していない場合(ステップS403:NO)、トランスレーションステップ処理部13は上記ステップS402に戻って上記録音操作の実行を判定する。一方ステップS403の判定において上記待機時間が経過した場合(ステップS403:YES)、トランスレーションステップ処理部13は上記ステップS400に戻って当該ステップS400以降を繰り返す。   When the above step S400 is completed, next, the translation step processing unit 13 performs output of English speech translated from the Japanese translated text ST41J displayed in step S400 into English and displaying of the English translation like English karaoke (that is, in step S400). It is monitored whether the user who desires output and display of an answer for the displayed English translation problem sentence QU operates the above-mentioned answer confirmation operation button of the operation unit 3 to perform an answer confirmation operation (step S401) ). If the answer confirmation operation is performed in the monitoring of step S401 (step S401: YES), the translation step processing unit 13 proceeds to step S406 described later. On the other hand, when the above-mentioned answer confirmation operation is not performed in the monitoring of step S401 (step S401: NO), next, the translation step processing unit 13 records its own English voice translated from the Japanese translation ST41J displayed in step S400. It is monitored whether the user who wants to reproduce the music operates the recording button of the operation unit 3 to perform the recording operation (step S402). When the recording operation is not performed in the monitoring of step S402 (step S402: NO), next, the translation step processing unit 13 determines whether or not the standby time set in advance has passed since the execution of step S400. It determines (step S403). If it is determined in step S403 that the standby time has not elapsed (step S403: NO), the translation step processing unit 13 returns to step S402 to determine execution of the recording operation. On the other hand, when the above standby time has elapsed in the determination of step S403 (step S403: YES), the translation step processing unit 13 returns to the above step S400 and repeats the step S400 and subsequent steps.

他方、ステップS402の監視において上記録音操作が行われた場合(ステップS402:YES)、トランスレーションステップ処理部13は上記録音操作の直後から発音されているであろうユーザの英語音声を、マイク8を介して集音し、更に当該集音結果としての音声信号を上記レコードステップにおけるステップS303又はステップS310と同様にして例えば記録部5に一時的に記録する(ステップS404)。   On the other hand, when the recording operation is performed in the monitoring of step S402 (step S402: YES), the translation step processing unit 13 microphones the English voice of the user who will be pronounced immediately after the recording operation. The sound signal as the sound collection result is temporarily recorded in, for example, the recording unit 5 in the same manner as step S303 or step S310 in the recording step (step S404).

次にトランスレーションステップ処理部13は、ステップS404が終了してから予め設定された時間が経過した後、当該ステップS404で録音したユーザの英語音声を再生する(ステップS405)。その後更にトランスレーションステップ処理部13は、上記英訳問題文QUに対する解答として、ステップS400で表示された和訳文ST41Jを英訳した英語音声の出力及び当該英訳の英文カラオケ様表示を行う(ステップS406)。以上のステップS405及びステップS406の実行により、ステップS404で録音された自身の英語音声(ステップS405)を正しい英語音声(ステップS406)と比較することで、そのユーザが正しい解答(翻訳)を行ったかを確認することができる。   Next, the translation step processing unit 13 reproduces the user's English voice recorded in step S404 after a preset time has elapsed since the end of step S404 (step S405). Thereafter, as an answer to the above-mentioned English translation problem sentence QU, the translation step processing unit 13 further performs output of English voice translated from the Japanese translation text ST41J displayed in step S400 and English karaoke display of the English translation (step S406). Whether the user performed the correct answer (translation) by comparing his own English voice (step S405) recorded in step S404 with the correct English voice (step S406) by executing steps S405 and S406 described above Can be confirmed.

その後トランスレーションステップ処理部13は、上記ステップS400乃至上記ステップS406が再度実行されることを望むユーザが操作部3の上記リトライボタンを操作してリトライ操作を行ったか否かを監視する(ステップS407)。ステップS407の監視においてリトライ操作が行われた場合(ステップS407:YES)、トランスレーションステップ処理部13は上記ステップS400に戻って、当該ステップS400乃至上記ステップS407を再度実行する。   Thereafter, the translation step processing unit 13 monitors whether or not the user desiring to execute the steps S400 to S406 again operates the retry button of the operation unit 3 to perform the retry operation (step S407). ). If a retry operation is performed in the monitoring of step S407 (step S407: YES), the translation step processing unit 13 returns to step S400 and executes step S400 to step S407 again.

一方トランスレーションステップ処理部13は、上記ステップS400乃至上記ステップS407の実行と並行して、当該ステップS400乃至当該ステップS407を最後まで実行せずに次のトランスレーションシーンに進むことを望むユーザが操作部3の上記スキップボタンを操作して上記スキップ操作を行ったか否かを監視する(ステップS410。ステップS410:NO。)。ステップS410の監視において上記スキップ操作が行われた場合(ステップS410:YES)、トランスレーションステップ処理部13は後述するステップS408に移行する。   On the other hand, in parallel with the execution of the above steps S400 to S407, the translation step processing unit 13 is operated by the user who wants to proceed to the next translation scene without performing the steps S400 to S407 to the end. It is monitored whether or not the skip operation has been performed by operating the skip button of part 3 (step S410. NO at step S410). When the skip operation is performed in the monitoring of step S410 (step S410: YES), the translation step processing unit 13 proceeds to step S408 described later.

他方ステップS407の監視においてリトライ操作が例えば予め設定された待機時間内に行われないか(ステップS407:NO)、又は上記ステップS410の監視において上記スキップ操作が行われた場合(ステップS410:YES)、トランスレーションステップ処理部13は、トランスレーションステップとして予め設定されたシーン数(第1実施形態の場合は四)だけトランスレーションシーン(即ち上記ステップS400乃至ステップS407及びステップS410)が繰り返されたか否かを判定する(ステップS408)。ステップS408の判定において、既定のシーン数が繰り返されていない場合(ステップS408:NO)、トランスレーションステップ処理部13は、トランスレーションステップとして予め設定されている次のトランスレーションシーンに切り換え(ステップS409)、当該切り換えられた次のトランスレーションシーンについて、上記ステップS400乃至上記ステップS407及びステップS410を繰り返す。   On the other hand, if the retry operation is not performed, for example, within a preset waiting time in the monitoring of step S407 (step S407: NO), or the skip operation is performed in the monitoring of step S410 (step S410: YES) The translation step processing unit 13 determines whether or not the translation scenes (that is, the steps S400 to S407 and step S410) are repeated by the number of scenes (four in the first embodiment) set in advance as the translation steps. It is determined (step S408). If it is determined in step S408 that the predetermined number of scenes has not been repeated (step S408: NO), the translation step processing unit 13 switches to the next translation scene preset as the translation step (step S409). The above-mentioned steps S400 to S407 and step S410 are repeated for the switched next translation scene.

ここで、第1実施形態に係るトランスレーションステップは、図12に例示するように、画像GS41並びに和訳文ST41J及び英訳問題文QUからなる第1トランスレーションシーン(図12(a)参照)、画像GS42並びに和訳文ST42J及び英訳問題文QUからなる第2トランスレーションシーン(図12(b)参照)、画像GS43並びに和訳文ST43J及び英訳問題文QUからなる第3トランスレーションシーン(図12(c)参照)及び画像GS44並びに和訳文ST44J及び英訳問題文QUからなる第4トランスレーションシーン(図12(d)参照)から構成されている。そして、各トランスレーションシーンのステップS406では、第1トランスレーションシーンの場合は図13(a)に例示する画像GS41の表示及び英文ST41の英文カラオケ様表示が行われ、第2トランスレーションシーンの場合は図13(b)に例示する画像GS42の表示及び英文ST42の英文カラオケ様表示が行われ、第3トランスレーションシーンの場合は図13(c)に例示する画像GS43の表示及び英文ST43の英文カラオケ様表示が行われ、第4トランスレーションシーンの場合は図13(d)に例示する画像GS44の表示及び英文ST44の英文カラオケ様表示が行われる。このとき、図12と図13とを比較すると明らかなように、図12(a)に例示する和訳文ST41Jでは図13(a)に例示する英文ST41における単語の区切りに相当する位置に読点が打たれており、図12(b)に例示する和訳文ST42Jでは図13(b)に例示する英文ST42における単語の区切りに相当する位置に読点が打たれており、図12(c)に例示する和訳文ST43Jでは図13(c)に例示する英文ST43における単語の区切りに相当する位置に読点が打たれており、図12(d)に例示する和訳文ST44Jでは図13(d)に例示する英文ST44における単語の区切りに相当する位置に読点が打たれている。   Here, as illustrated in FIG. 12, the translation step according to the first embodiment is a first translation scene (see FIG. 12A) including an image GS41, a Japanese translation sentence ST41J, and an English translation problem sentence QU. The second translation scene (see FIG. 12 (b)) including GS42 and Japanese translation sentence ST42J and English translation problem sentence QU, and the third translation scene including image GS43 and Japanese translation sentence ST43J and English translation problem sentence QU (FIG. 12 (c) And a fourth translation scene (see FIG. 12 (d)) including an image GS44, a Japanese translation sentence ST44J, and an English translation problem sentence QU. Then, in step S406 of each translation scene, the display of the image GS41 illustrated in FIG. 13A and the display of English karaoke like English ST41 are performed in the case of the first translation scene, and the case of the second translation scene. In the case of the third translation scene, the display of the image GS43 illustrated in FIG. 13B and the display of the English translation ST42 in English karaoke-like display are performed, and in the case of the third translation scene, the display of the image GS43 illustrated in FIG. A karaoke-like display is performed, and in the case of the fourth translation scene, the display of the image GS44 illustrated in FIG. 13D and the display of English karaoke-like display of English ST44 are performed. At this time, as is clear from comparison between FIG. 12 and FIG. 13, in Japanese translation sentence ST41J illustrated in FIG. 12A, the reading point is located at the position corresponding to the word break in English sentence ST41 illustrated in FIG. In Japanese translation sentence ST42J illustrated in FIG. 12B, a reading point is placed at a position corresponding to a word break in English sentence ST42 illustrated in FIG. 13B, and is illustrated in FIG. 12C. In Japanese translation sentence ST43J to be read, a reading point is placed at a position corresponding to the word break in English sentence ST43 illustrated in FIG. 13C, and in Japanese translation sentence ST44J illustrated in FIG. A reading point is placed at a position corresponding to the word break in English sentence ST44.

図11に戻って、上記ステップS408の判定において、既定のシーン数が繰り返された場合(ステップS408:YES)、トランスレーションステップ処理部13は、図3に示すステップS3に移行する。   Returning to FIG. 11, when the predetermined number of scenes is repeated in the determination of step S408 (step S408: YES), the translation step processing unit 13 proceeds to step S3 shown in FIG.

ここで、上記ステップS3においてサーバ装置SVから取得されるアイテムデータITD及びそれが相当する第1実施形態に係るアイテム等について、図14を用いて説明する。なお、図14は当該アイテム等の例を示す図である。   Here, the item data ITD acquired from the server apparatus SV in the step S3 and the item etc. according to the first embodiment corresponding thereto will be described using FIG. FIG. 14 is a view showing an example of the item etc.

上記ステップS3においては、サーバ装置SVから予め取得され且つ端末装置Tの記録部5に記録されているマップデータに基づいて、図14(a)に例示する仮想的な遊園地等を含む地域を示す地図MPがディスプレイ4に表示される。そして、端末装置Tのユーザは、これまで説明してきたリスニングステップ乃至トランスレーションステップ(図3ステップS10、ステップS20、ステップS30及びステップS40参照)を一回終了すると、図14(a)に例示する地図MPに対して、建物又は遊具の一つであるアイテムIT(図14(b)参照)を一つ取得する。このときそのユーザの端末装置Tの処理部1は、サーバ装置SVから当該取得するアイテムITに相当するアイテムデータITDを、ネットワークNWを介して取得する。そして当該ユーザは、上記リスニングステップ乃至トランスレーションステップを一回終了する度に一のアイテムITに相当するアイテムデータITDを取得することを繰り返し、更に当該取得したアイテムデータITDに相当するアイテムITを地図MPに反映させる。これによりユーザは、段階的に難度が高い上記リスニングステップ乃至上記トランスレーションステップを終了する度に、その好みのアイテムITに相当するアイテムデータITDが取得し、最終的にはそのユーザが好みの遊園地等を地図MP内に建築できる。これによりユーザは上述した通り、常に高いモチベーションを維持しつつ、第1実施形態に係る言語学習に取り組むことができる。なお、上記アイテムITの取得は、上述したような上記リスニングステップ乃至トランスレーションステップを一回終了する度だけでなく、例えば、各ステップの途中や上記リスニングステップ乃至トランスレーションステップを複数回終了した後等、ユーザの例えば学齢等に応じて変更することも可能である。   In the step S3, based on the map data acquired in advance from the server apparatus SV and recorded in the recording unit 5 of the terminal apparatus T, an area including a virtual amusement park etc. illustrated in FIG. A map MP shown is displayed on the display 4. When the user of the terminal device T completes the listening step or the translation step described above (see steps S10, S20, S30 and S40 in FIG. 3) once, it is illustrated in FIG. For the map MP, one item IT (see FIG. 14B), which is one of a building or a playground equipment, is acquired. At this time, the processing unit 1 of the terminal device T of the user acquires item data ITD corresponding to the acquired item IT from the server device SV via the network NW. The user repeatedly acquires item data ITD corresponding to one item IT every time the listening step or the translation step is completed, and further maps the item IT corresponding to the acquired item data ITD. Reflect on MP. As a result, every time the user finishes the above-mentioned listening step or the above-mentioned translation step, which has a high degree of difficulty, item data ITD corresponding to the item IT of the preference is acquired, and finally the user likes the amusement of the preference A ground etc. can be built in map MP. As a result, as described above, the user can work on language learning according to the first embodiment while always maintaining high motivation. The acquisition of the item IT is performed not only every time the listening step or the translation step as described above is completed once but, for example, after each step or the listening step or the translation step is completed a plurality of times It is also possible to change in accordance with the user's school age, for example.

以上説明したように、第1実施形態の言語学習処理によれば、学習対象たる言語である英語により綴られた英文ST111等を含む画像と、当該英文ST111等を発音した音声と、を、複数のリスニングシーンとして出力するリスニングステップを実行し(図3ステップS10及び図4乃至図6参照)、その後に、複数のレコードシーンからなるレコードステップを実行する(図3ステップS30並びに図9及び図10参照)。このとき、リスニングステップとして、一のリスニングシーンを構成する画像GS11等及び英語音読音声を出力することが、同一文法の相互に異なる英文によりそれぞれ構成される複数のリスニングシーンとして繰り返される。一方レコードステップとして、一のレコードシーンを構成する画像GS31等及び英語音読音声を出力し、画像GS31等及び英語音読音声に対応する英文ST311等を音読(発音)したユーザの音声を集音して録音し(図9ステップS303及びステップS310参照)、録音した音声を出力すること(図9ステップS304及びステップS311参照)が、同一文法の相互に異なる文章によりそれぞれ構成される複数のレコードシーンごとに繰り返される。よって、リスニングステップとレコードステップとが、同一の文法の異なる文章により構成されるいわゆるパターンプラクティスとして実行されることで、英語の学習効果(練習効果)を向上させることができる。   As described above, according to the language learning process of the first embodiment, a plurality of images including English ST111 and the like spelled in English, which is a language to be learned, and voices uttering the English ST11 and the like Perform a listening step to output as a listening scene (see step S10 of FIG. 3 and FIGS. 4 to 6), and then execute a recording step consisting of a plurality of record scenes (FIG. 3 step S30 and FIGS. 9 and 10). reference). At this time, as the listening step, outputting the image GS11 etc. constituting one listening scene and the English speech reading speech is repeated as a plurality of listening scenes respectively composed of different English sentences of the same grammar. On the other hand, as a record step, the image GS31 etc. constituting one record scene and the English speech reading voice are outputted, and the voice of the user who read aloud (pronounced) the image GS31 etc. and the English ST 311 etc. Recording (see step S303 and step S310 in FIG. 9) and outputting the recorded voice (see step S304 and step S311 in FIG. 9) are performed for each of a plurality of record scenes respectively composed of different sentences of the same grammar. Repeated. Therefore, the learning effect (practice effect) of English can be improved by performing the listening step and the recording step as so-called pattern practice composed of different sentences of the same grammar.

またレコードステップにおいては、ユーザによる録音操作が行われた場合に、その音声の集音及び録音を行う(図3ステップS301及びステップS308参照)。よって、ユーザの任意のタイミングで発音及び録音を行うことができるので、余裕を持って英語を学習することができる。   In the recording step, when the user performs a recording operation, the voice is collected and recorded (see step S301 and step S308 in FIG. 3). Therefore, since pronunciation and recording can be performed at an arbitrary timing of the user, English can be learned with a margin.

更にリスニングステップにおいては、複数(例えば四回)のリスニングシーン分の繰り返しが終了したタイミングにおいて解説Cmを表示するので(図4ステップS107参照)、リスニングステップの学習の対象となった文法の内容を容易に理解することができる。   Furthermore, in the listening step, the comment Cm is displayed at the timing when repetition for a plurality of (for example, four) listening scenes is completed (see step S107 in FIG. 4), the content of the grammar targeted for learning in the listening step It can be easily understood.

更にまたレコードステップにおいては、複数のレコードシーン分の繰り返しが終了したタイミングにおいて労い情報を出力するので(図9ステップS316参照)、ユーザの学習継続意欲を維持又は高めることができる。   Furthermore, in the recording step, since the work information is output at the timing when the repetition for a plurality of record scenes is completed (see step S316 in FIG. 9), the user's motivation to continue learning can be maintained or enhanced.

また、リスニングステップとレコードステップとの間に、複数のリピートシーンからなるリピートステップを実行する(図3ステップS20並びに図7及び図8参照)。このときリピートステップとして、一のリピートシーンを構成する画像GS21等及び英語音読音声を出力し、当該画像GS21等及び英語音読音声に対応する英文を構成する単語の発音を促す発音指示音声の出力が、同一文法の相互に異なる文章によりそれぞれ構成される複数のリピートシーンごとに繰り返される。よって、同一の文法の異なる文章により構成されるいわゆるパターンプラクティスとして、リスニングステップ及びレコードステップに加えてリピートステップが実行されることで、学習対象たる英語の学習効果(練習効果)をより向上させることができる。   Further, a repeat step consisting of a plurality of repeat scenes is executed between the listening step and the record step (see step S20 in FIG. 3 and FIGS. 7 and 8). At this time, as a repeat step, an image GS21 etc. constituting one repeat scene and an English speech reading speech are outputted, and an output of a pronunciation instructing speech prompting the pronunciation of a word constituting the English sentence corresponding to the image GS21 etc. Is repeated for each of a plurality of repeat scenes each composed of different sentences of the same grammar. Therefore, as the so-called pattern practice consisting of different sentences of the same grammar, the repetition step is executed in addition to the listening step and the recording step, thereby further improving the learning effect (practicing effect) of the English language to be learned Can.

またリピートステップにおいては、複数(例えば四回)のリピートシーン分の繰り返しが終了したタイミングにおいて解説Cmを表示するので(図7ステップS212参照)、リピートステップとしての学習の対象となった文法の内容を容易に理解することができる。   In addition, in the repeat step, the comment Cm is displayed at the timing when the repetition for a plurality of (for example, four) repeat scenes is completed (see FIG. 7, step S 212). Can be easily understood.

更に、一のリスニングステップにおけるリスニングシーンの繰り返し数、一のレコードステップにおけるレコードシーンの繰り返し数、及び一のリピートステップにおけるリピートシーンの繰り返し数が全て同一であるので、パターンプラクティスとしての学習効果を更に高めることができる。更にまた、当該各繰り返し数が四回であるので、飽きを防止してパターンプラクティスとしての学習効果をより高めることができる。   Furthermore, since the number of repetitions of the listening scene in one listening step, the number of repetitions of the record scene in one record step, and the repetition number of the repeat scene in one repeat step are all the same, the learning effect as pattern practice is further added. It can be enhanced. Furthermore, since the number of repetitions is four, it is possible to prevent boredom and further enhance the learning effect as the pattern practice.

また、レコードステップの後に、複数のトランスレーションシーンからなるトランスレーションステップを実行する(図3ステップS40及び図11乃至図13参照)。このときトランスレーションステップとして、一のトランスレーションシーンを構成する和訳文ST41J等を含む画像が表示され、その和訳文ST41J等に相当する日本語の音声が録音され(図11ステップS404参照)、録音された音声が再生され(図11ステップS405参照)、その後、和訳文ST41Jを英訳した英語音声の出力及び当該英訳の英文カラオケ様表示が行われること(図11ステップS406参照)が、同一文法の相互に異なる和訳文ST41J等によりそれぞれ構成される複数のトランスレーションシーンごとに繰り返される。よって、同一の文法の異なる和訳文ST41J等によるいわゆるパターンプラクティスとしてトランスレーションステップが更に実行されることで、学習対象たる英語の学習効果(練習効果)をより向上させることができる。   Also, after the recording step, a translation step consisting of a plurality of translation scenes is executed (see step S40 of FIG. 3 and FIGS. 11 to 13). At this time, as a translation step, an image including a Japanese translation sentence ST41J and the like constituting one translation scene is displayed, and Japanese speech corresponding to the Japanese translation sentence ST41J and the like is recorded (see step S404 in FIG. 11). The reproduced voice is reproduced (see step S405 in FIG. 11), and after that, the output of the English voice translated from the Japanese translation text ST41J and the display of the English karaoke like English karaoke are performed (see step S406 in FIG. 11). The process is repeated for each of a plurality of translation scenes composed of mutually different Japanese translation sentences ST41J and the like. Therefore, by further executing the translation step as so-called pattern practice based on different Japanese translated sentences ST41J and the like having the same grammar, it is possible to further improve the learning effect (practicing effect) of English as a learning target.

またトランスレーションステップにおいては、ユーザによる録音操作が実行された場合に、翻訳音声の集音及び録音を行う(図11ステップS402参照)ので、ユーザの任意のタイミングで音声の発音及び録音を行うことができるので、余裕を持って英語を学習することができる。   Also, in the translation step, when the user performs a recording operation, the translated speech is collected and recorded (see step S402 in FIG. 11). Because you can, you can learn English with a margin.

更にトランスレーションステップにおいては、和訳文ST41J等における読点の位置が、当該和訳文ST41J等に相当する英文における単語の区切りに相当する位置とされているので(図12参照)、より正確な音声の録音等を行わせることができる。   Furthermore, in the translation step, since the position of the reading point in the Japanese translation sentence ST41 J etc. is the position corresponding to the word break in the English equivalent to the Japanese translation sentence ST 41 J etc. (see FIG. 12), more accurate speech It can be made to record etc.

更にまたトランスレーションステップにおいては、解答確認操作が行われた場合に、表示中の和訳文ST41J等に相当する英文音読を出力する(図11ステップS401及びステップS406参照)ので、ユーザにおいて和訳文ST41J等の翻訳が難しい場合に、当該ユーザによる解答確認操作により当該相当する英文音読を出力させることで、停滞することなく英語学習を進めることができる。   Furthermore, in the translation step, when the answer confirmation operation is performed, the English phonetic pronunciation corresponding to the displayed translated Japanese sentence ST41J and the like is output (see FIG. 11 step S401 and step S406). When it is difficult to translate, etc., English learning can be advanced without stagnation by outputting the corresponding English pronunciation by answer confirmation operation by the user.

またトランスレーションステップにおいては、一のトランスレーションシーンに対応する和訳文ST41J等の数(一)が、一のリスニングシーンを構成する英文ST111等の数、一のレコードシーンを構成する英文ST311等数及び一のリピートシーンを構成する英文ST211等の数のいずれ(それぞれ二)よりも少ないので、難度の高いトランスレーションシーン内の和訳文ST41J等の数を抑えて学習意欲の低下を防止することができる。   Also, in the translation step, the number (one) of the Japanese translated sentence ST41 J etc. corresponding to one translation scene is the number of English sentences ST 111 etc. constituting one listening scene, and the number of English sentences ST311 equaling one record scene Since the number of English sentences ST211 etc. constituting one repeat scene is smaller than any of them (each two), the number of Japanese translated sentences ST41 J etc. in the translation scene with high degree of difficulty can be suppressed to prevent a decline in learning motivation. it can.

更に、上記リスニングステップ、上記リピートステップ及び上記レコードステップにいおいて英文カラオケ様表示を行うので、音声としていずれの単語が出力されているかを容易に認識することができる。   Furthermore, since English-language karaoke-like display is performed in the listening step, the repeat step, and the record step, it is possible to easily recognize which word is output as a voice.

更にまた英文カラオケ様表示においては、音声としての出力タイミングにおけるその他隠語の画像内の表示色が、その出力タイミング後に音声として出力される他の単語の表示色態に対して異ならせられつつ出力されるので、音声としていずれの単語が出力されているかをより容易に認識することができる。   Furthermore, in an English karaoke-like display, the display color in the image of another secret word at the output timing as voice is output while being made different from the display colors of other words output as voice after the output timing. Therefore, it can be more easily recognized which word is output as speech.

また、相互に対応するリスニングシーン、リピートシーン、レコードシーン及びトランスレーションシーンの当該各シーンを構成する少なくともキャラクタ及びその動作が同一であるので、リスニングステップ→リピートステップ→レコードステップ→トランスレーションステップと同じキャラクタにより学習が進むことで、学習効果をより高めることができる。   In addition, since at least the characters constituting the respective scenes of mutually corresponding listening scenes, repeat scenes, record scenes and translation scenes and their operations are the same, the same as listening step → repeat step → record step → translation step The learning effect can be further enhanced by advancing the learning by the character.

更に、リスニングステップ、リピートステップ、レコードステップ及びトランスレーションステップがそれぞれ終了した場合に、そのユーザが好みのアイテムITを取得して記録することができるので(図14参照)、当該ユーザにおける事後の学習意欲を更に増大させることができる。   Furthermore, when the listening step, the repeat step, the record step, and the translation step are completed, the user can acquire and record the favorite item IT (see FIG. 14). The motivation can be further increased.

(II)第2実施形態
次に、本発明に係る他の実施形態である第2実施形態について、図15及び図16を用いて説明する。なお、図15は第2実施形態に係る言語学習処理におけるレコードステップの内容を示すフローチャートであり、図16は当該言語学習処理におけるトランスレーションステップの内容を示すフローチャートである。
(II) Second Embodiment Next, a second embodiment which is another embodiment according to the present invention will be described with reference to FIG. 15 and FIG. FIG. 15 is a flow chart showing the contents of the record step in the language learning process according to the second embodiment, and FIG. 16 is a flow chart showing the contents of the translation step in the language learning process.

また、第2実施形態に係る言語学習システムのハードウエア構成は、基本的には第1実施形態に係る言語学習システムSのハードウェア構成と同一であるので、以下の第2実施形態の説明では、当該言語学習システムSと同様の構成部材については、同様の部材番号を付して細部の説明は省略する。更に、第2実施形態に係る言語学習処理のうち、第1実施形態に係る言語学習処理と同様の処理については、同様のステップ番号を付して細部の説明を省略する。   Further, the hardware configuration of the language learning system according to the second embodiment is basically the same as the hardware configuration of the language learning system S according to the first embodiment, so in the description of the second embodiment below About the component similar to the said language learning system S, the same member number is attached | subjected and description of detail is abbreviate | omitted. Further, in the language learning process according to the second embodiment, the same processes as those in the language learning process according to the first embodiment are denoted by the same step numbers, and the detailed description will be omitted.

以下に説明する第2実施形態に係る言語学習処理では、そのレコードステップ及びトランスレーションステップが、上述した第1実施形態に係る言語学習処理におけるレコードステップ及びトランスレーションステップと異なる。その他の、第2実施形態に係る言語学習処理におけるリスニングステップ及びリピートステップは、上述した第1実施形態に係る言語学習処理におけるリスニングステップ及びリピートステップと同様であるので、細部の説明を省略する。   In the language learning process according to the second embodiment described below, the record step and the translation step are different from the record step and the translation step in the language learning process according to the above-described first embodiment. Since the listening step and the repeat step in the language learning process according to the second embodiment are the same as the listening step and the repeat step in the language learning process according to the first embodiment described above, the description of the details will be omitted.

(i)第2実施形態に係るレコードステップについて
始めに、第2実施形態に係るレコードステップについて、図15を用いて具体的に説明する。
(I) Record Steps According to the Second Embodiment First, the record steps according to the second embodiment will be specifically described with reference to FIG.

図15に示すように第2実施形態に係るレコードステップ(ステップS30−1)では、レコードステップ処理部12は始めに、第1実施形態に係るレコードステップにおけるステップS300乃至ステップS303と同様の処理を実行する。   As shown in FIG. 15, in the record step (step S30-1) according to the second embodiment, the record step processing unit 12 first performs the same process as step S300 to step S303 in the record step according to the first embodiment. Run.

次にレコードステップ処理部12は、第1実施形態に係るレコードステップにおけるステップS304と同様の処理と並行して、ステップS303で集音/録音されたユーザの英語音声を認識し、その認識結果と、その後のステップS305で出力される英文ST311の英語音読音声の内容と、を自動的に比較し、両者が同じか否かを判定し、その結果を、例えばディスプレイ4上に例えば「〇(両者が同じである場合)」又は「×(両者が異なる場合)」と表示する(ステップS320)。このステップS320における自動判定の方法は、例えば従来と同様の音声判別方法等を用いることができる。その後レコードステップ処理部12は、第1実施形態に係るレコードステップにおけるステップS305及びステップS305と同様の処理を実行する。   Next, in parallel with the process similar to step S304 in the record step according to the first embodiment, the record step processing unit 12 recognizes the user's English voice collected / recorded in step S303, and the recognition result is Then, the contents of the English reading aloud of English ST 311 output in step S 305 are automatically compared, and it is determined whether or not both are the same. Is the same) or "x (if both are different)" (step S320). As the method of automatic determination in step S320, for example, the same voice determination method as that in the related art can be used. Thereafter, the record step processing unit 12 executes the same processing as step S305 and step S305 in the record step according to the first embodiment.

その後レコードステップ処理部12は、第1実施形態に係るレコードステップにおけるステップS307乃至ステップS310と同様の処理を実行する。   Thereafter, the record step processing unit 12 executes the same processing as steps S307 to S310 in the record step according to the first embodiment.

次にレコードステップ処理部12は、第1実施形態に係るレコードステップにおけるステップS311と同様の処理と並行して、ステップS310で集音/録音されたユーザの英語音声を認識し、その認識結果と、その後のステップS312で出力される英文ST312の英語音読音声の内容と、を自動的に比較し、両者が同じか否かを判定し、その結果を、上記ステップS320と同様に例えばディスプレイ4上に表示する(ステップS321)。このステップS320における自動判定の方法は、上記ステップS320と同様である。その後レコードステップ処理部12は、第1実施形態に係るレコードステップにおけるステップS312乃至ステップS316及びステップS317と同様の処理を実行する。   Next, in parallel with the process similar to step S311 in the record step according to the first embodiment, the record step processing unit 12 recognizes the user's English voice collected / recorded in step S310, and the recognition result Then, the content of the English reading aloud of English ST 312 outputted in step S312 is automatically compared, and it is determined whether or not both are the same, and the result is, for example, the same as step S320 above. (Step S321). The method of the automatic determination in step S320 is the same as that of step S320. Thereafter, the record step processing unit 12 executes the same processing as steps S312 to S316 and step S317 in the record step according to the first embodiment.

(ii)第2実施形態に係るトランスレーションステップについて
次に、第2実施形態に係るトランスレーションステップについて、図16を用いて具体的に説明する。
(Ii) Translation step according to the second embodiment Next, the translation step according to the second embodiment will be specifically described with reference to FIG.

図16に示すように第2実施形態に係るトランスレーションステップ(ステップS40−1)では、トランスレーションステップ処理部13は始めに、第1実施形態に係るトランスレーションステップにおけるステップS400乃至ステップS404と同様の処理を実行する。   As shown in FIG. 16, in the translation step (step S40-1) according to the second embodiment, the translation step processing unit 13 is the same as steps S400 to S404 in the translation step according to the first embodiment. Execute the process of

次にトランスレーションステップ処理部13は、第1実施形態に係るトランスレーションステップにおけるステップS405と同様の処理と並行して、ステップS404で集音/録音されたユーザの英語音声を認識し、その認識結果と、その後のステップS406で出力される和訳文ST41Jを英訳した英語音声の内容と、を自動的に比較し、両者が同じか否かを判定し、その結果を、上記ステップS320と同様の方法で例えばディスプレイ4上に表示する(ステップS411)。このステップS411における自動判定の方法も、例えば上記ステップS320と同様の方法を用いることができる。その後トランスレーションステップ処理部13は、第1実施形態に係るトランスレーションステップS40におけるステップS406乃至ステップS410と同様の処理を実行する。   Next, in parallel with the process similar to step S405 in the translation step according to the first embodiment, the translation step processing unit 13 recognizes and recognizes the user's English voice collected / recorded in step S404. The result is automatically compared with the contents of the English voice translated from the translated Japanese sentence ST41J output in the subsequent step S406, it is determined whether or not both are the same, and the result is the same as in step S320 above. For example, it is displayed on the display 4 by the method (step S411). The method of automatic determination in step S411 can also use, for example, the same method as step S320. Thereafter, the translation step processing unit 13 executes the same processes as steps S406 to S410 in the translation step S40 according to the first embodiment.

以上説明したように、第2実施形態に係るレコードステップによれば、第1実施形態に係る言語学習処理の作用効果に加えて、録音されたユーザの音声の内容を認識し、その認識結果と、英文ST311等の英語音読音声の内容と、を比較し、両者が同じか否かを判定して表示するので(図15ステップS320又はステップS321参照)、ユーザが発声した当該音声の内容が合っているか否かを迅速に認識しつつ、当該英語の学習を進めることができる。   As described above, according to the record step according to the second embodiment, in addition to the effects of the language learning process according to the first embodiment, the content of the voice of the recorded user is recognized, and the recognition result Since the contents of the English reading speech such as English ST311 etc. are compared and it is judged whether both are the same or not and displayed (refer to FIG. 15 step S320 or step S321), the contents of the said speech uttered by the user match Learn English quickly while recognizing whether or not

また、第2実施形態に係るトランスレーションステップによれば、第1実施形態に係る言語学習処理の作用効果に加えて、録音されたユーザの音声の内容を認識し、その認識結果と、和訳文ST41Jを英訳した英語音声の内容と、を比較し、両者が同じか否かを判定して表示するので(図16ステップS411参照)、ユーザが発声した当該音声の内容が合っているか否かを迅速に認識しつつ、当該英語の学習を進めることができる。   Further, according to the translation step of the second embodiment, in addition to the effects of the language learning process of the first embodiment, the content of the recorded user's voice is recognized, and the recognition result and the Japanese translation sentence The contents of the English voice translated from ST41 J are compared, and it is judged whether or not both are the same and displayed (see step S411 in FIG. 16). Therefore, whether the contents of the voice uttered by the user are correct or not It is possible to advance the learning of the English while quickly recognizing it.

なお、上述した第2実施形態に係る言語学習処理のステップS320、ステップS321及びステップS411においては、例えばステップS303で集音/録音されたユーザの英語音声の認識結果と、ステップS305で出力される英文ST311の英語音読音声の内容と、が「同じか否か」を画一的に判定したが、これ以外に、両者の一致度を例えばパーセントで算出し、それを例えばディスプレイ4上に表示するように構成してもよい。   In step S320, step S321 and step S411 of the language learning process according to the second embodiment described above, for example, the recognition result of the user's English voice collected / recorded in step S303 and the result of step S305 are output. Although the content of the English reading speech in English ST 311 is uniformly determined whether "the same or not", in addition to this, for example, the degree of coincidence between the two is calculated and displayed on the display 4 It may be configured as follows.

更に、上述した各実施形態では、リスニングステップ等の各ステップにおいて同一の文法関係を用いたが、これ以外に、一又は複数のステップごとに文法関係の一部又は全部を異ならせてもよい。   Furthermore, although the same grammatical relationship is used in each step such as the listening step in each embodiment described above, part or all of the grammatical relationship may be different for each of one or more steps.

更にまた、上述した各実施形態は、英語学習処理に対して本発明を適用した場合について説明したが、本発明はこれに限らず、日本語以外の種々の言語を効率的に学習する場合に適用することができる。   Furthermore, although each embodiment mentioned above demonstrated the case where this invention was applied to English learning processing, this invention is not limited to this, When learning various languages other than Japanese efficiently It can apply.

また、図3、図4、図7、図9、図11、図15及び図16に示すフローチャートに相当するプログラムを光ディスク又はハードディスク等の記録媒体に記録しておき、或いは上記ネットワークNWを介して取得して不揮発性に記録しておき、これを汎用のマイクロコンピュータ等で読み出して実行することにより、当該マイクロコンピュータ等を各実施形態に係る処理部1として機能させることも可能ある。   Also, programs corresponding to the flowcharts shown in FIGS. 3, 4, 7, 9, 11, 15, and 16 are recorded in a recording medium such as an optical disk or a hard disk, or through the network NW. It is also possible to cause the microcomputer or the like to function as the processing unit 1 according to each embodiment by acquiring and recording the data in a non-volatile manner and reading and executing it using a general-purpose microcomputer or the like.

以上夫々説明したように、本発明は言語学習の分野に利用することが可能であり、特に、コンピュータシステムを用いた言語学習の分野に適用すれば特に顕著な効果が得られる。   As described above, the present invention can be used in the field of language learning, and in particular, when applied to the field of language learning using a computer system, particularly remarkable effects can be obtained.

1、21 処理部
2、20 通信部
3 操作部
4 ディスプレイ
5 記録部
6 メモリ
7 スピーカ
8 マイク
10 リスニングステップ処理部
11 リピートステップ処理部
12 レコードステップ処理部
13 トランスレーションステップ処理部
S 言語学習システム
T1、T2、T3、Tn 端末装置
SV サーバ装置
NW ネットワーク
22 データベース
QD シーンデータ、
HD 学習履歴データ
GD 画像データ
MK マーカ
Cm 解説
QU 英訳問題文
MP 地図
IT アイテム
ITD アイテムデータ
GS11、GS12、GS13、GS14、GS21、GS21w、GS22、GS22w、GS31、GS31d、GS32、GS32d、GS41、GS42、GS43、GS44 画像
ST111、ST112、ST121、ST122、ST131、ST132,ST141、ST142、ST211、ST212、ST221、ST222、ST311、ST312、ST321、ST322、ST41、ST42、ST43、ST44 英文
ST41J、ST42J、ST43J、ST44J 和訳文
1, 21 processing unit 2, 20 communication unit 3 operation unit 4 display 5 recording unit 6 memory 7 speaker 8 microphone 10 listening step processing unit 11 repeat step processing unit 12 record step processing unit 13 translation step processing unit S language learning system T 1 , T2, T3, Tn Terminal device SV server device NW network 22 database QD scene data,
HD Learning History Data GD Image Data MK Marker Cm Explanation QU English Translation Problem Statement MP Map IT Item ITD Item Data GS11, GS12, GS13, GS14, GS21, GS21, GS21, GS22, GS22, GS31, GS31d, GS32, GS32, GS41, GS42, GS43, GS44 Image ST111, ST112, ST121, ST131, ST132, ST141, ST142, ST211, ST211, ST212, ST221, ST222, ST311, ST312, ST322, ST41, ST42, ST43, ST44 English ST41 J, ST42 J, ST43 J, ST43 J ST44J Japanese translation

Claims (21)

学習対象たる言語により綴られた文章を含む画像と、当該文章を発音した音声と、を、複数の視聴シーンとして出力する視聴ステップを実行する視聴ステップ実行手段と、
前記視聴ステップの後に、複数の録音シーンからなる録音ステップを実行する録音ステップ実行手段と、
を備える言語学習装置であって、
前記視聴ステップ実行手段は、
一の前記視聴シーンを構成する前記画像及び前記音声である視聴画像及び視聴音声を出力する視聴出力手段と、
前記視聴画像及び前記視聴音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記視聴シーンごとに繰り返すように前記視聴出力手段を制御する視聴制御手段と、
を備え、
前記録音ステップ実行手段は、
一の前記録音シーンを構成する前記画像及び前記音声である録音画像及び録音音声を出力する録音出力手段と、
前記録音画像及び前記録音音声に対応する前記文章を発音した学習者の音声を集音して録音する録音手段と、
前記録音した学習者の音声を出力する学習者音声出力手段と、
前記録音画像及び前記録音音声の出力、前記学習者の音声の集音及び録音、及び前記学習者の音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記録音シーンごとに繰り返すように、前記録音出力手段、前記録音手段、及び前記学習者音声出力手段を制御する録音制御手段と、
を備えることを特徴とする言語学習装置。
Viewing step execution means for executing a viewing step of outputting an image including a sentence spelled out in a language to be learned and a sound uttering the sentence as a plurality of viewing scenes;
Recording step execution means for executing a recording step consisting of a plurality of recording scenes after the viewing step;
A language learning device comprising
The viewing step executing means is
Viewing output means for outputting a viewing image and a viewing sound which are the image and the sound constituting the one viewing scene;
Viewing control means for controlling the viewing output means to repeat the output of the viewing image and the viewing audio for each of a plurality of viewing scenes respectively composed of the sentences different from each other in the same grammar;
Equipped with
The recording step execution means is
Recording output means for outputting a recorded image and a recorded voice which are the image and the voice constituting one of the recorded scenes;
Recording means for collecting and recording the voice of a learner who pronounces the recorded image and the sentence corresponding to the recorded voice;
Learner voice output means for outputting the voice of the recorded learner;
The recording image and the output of the recording voice, the collection and recording of the voice of the learner, and the output of the voice of the learner are each of a plurality of the recording scenes respectively configured by the sentences different from each other in the same grammar. Recording control means for controlling the recording output means, the recording means, and the learner voice output means, as described above;
A language learning apparatus comprising:
請求項1に記載の言語学習装置において、
前記録音手段による集音及び録音を開始する際に操作される操作手段を更に備え、
前記録音手段は、前記操作手段を用いた操作が実行された場合に、前記集音及び前記録音を行うことを特徴とする言語学習装置。
In the language learning device according to claim 1,
It further comprises operating means operated when collecting sound and recording by the recording means,
The language learning apparatus according to claim 1, wherein the recording unit performs the sound collection and the recording when an operation using the operation unit is performed.
請求項1又は請求項2に記載の言語学習装置において、
前記視聴制御手段による複数の前記視聴シーン分の繰り返しが終了したタイミングにおいて、前記視聴ステップに対応する前記文法の解説である文法解説情報を出力する解説情報出力手段を更に備えることを特徴とする言語学習装置。
In the language learning device according to claim 1 or 2,
A language further comprising comment information output means for outputting grammar commentary information which is an explanation of the grammar corresponding to the viewing step at a timing when repetition of the plurality of viewing scenes by the viewing control means is finished. Learning device.
請求項1から請求項3のいずれか一項に記載の言語学習装置において、
前記録音制御手段による複数の前記録音シーン分の繰り返しが終了したタイミングにおいて、学習者を労う旨の労い情報を出力する労い情報出力手段を更に備えることを特徴とする言語学習装置。
The language learning apparatus according to any one of claims 1 to 3.
A language learning apparatus, further comprising labor information output means for outputting labor information to labor the learner at the timing when repetition of a plurality of the recording scenes by the recording control means is finished.
請求項1から請求項4のいずれか一項に記載の言語学習装置において、
前記録音した学習者の音声の内容を認識する認識手段と、
前記認識手段による認識結果と、前記録音画像及び前記録音音声それぞれの内容と、を比較し、両者の一致度を示す一致度情報を出力する一致度情報出力手段と、
を更に備えることを特徴とする言語学習装置。
The language learning apparatus according to any one of claims 1 to 4.
Recognition means for recognizing the content of the recorded learner's voice;
Coincidence degree information output means for comparing the recognition result by the recognition means with the contents of each of the recorded image and the recorded speech and outputting the degree of coincidence information indicating the degree of coincidence between the two;
The language learning apparatus further comprising:
請求項1から請求項5のいずれか一項に記載の言語学習装置において、
前記視聴ステップと前記録音ステップとの間に、複数の反復シーンからなる反復ステップを実行する反復ステップ実行手段あって、
一の前記反復シーンを構成する前記画像及び前記音声である反復画像及び反復音声を出力する反復出力手段と、
各前記出力された反復画像及び反復音声に対応する前記文章を構成する単語の発音を促す発音促進情報を出力する発音促進手段と、
前記反復画像及び前記反復音声の出力並びに前記発音促進情報の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記反復シーンごとに繰り返すように、前記反復出力手段及び前記発音促進手段を制御する反復制御手段と、
を備える反復ステップ実行手段を更に備えることを特徴とする言語学習装置。
The language learning apparatus according to any one of claims 1 to 5,
Between the viewing step and the recording step, an iterative step executing means for performing an iterative step consisting of a plurality of repetitive scenes,
Repetition output means for outputting a repetition image and a repetition sound which are the image and the sound which constitute one of the repetition scenes;
A pronunciation promoting means for outputting pronunciation promoting information for prompting the pronunciation of words constituting the sentence corresponding to each of the output repeated images and repeated voices;
The repetitive output means and the speech promotion so that the repetitive image, the output of the repetitive speech, and the output of the pronunciation promotion information are repeated for each of a plurality of the repetitive scenes respectively constituted by the different sentences of the same grammar. Iterative control means for controlling the means;
A language learning apparatus, further comprising iterative step executing means comprising:
請求項6に記載の言語学習装置において、
前記反復制御手段による複数の前記反復シーン分の繰り返しが終了したタイミングにおいて、前記反復ステップに対応する前記文法の解説である文法解説情報を出力する反復解説情報出力手段を更に備えることを特徴とする言語学習装置。
In the language learning device according to claim 6,
It further comprises iterative commentary information output means for outputting grammatical commentary information which is the commentary of the grammar corresponding to the repetitive step at the timing when repetition of a plurality of repetitive scenes by the repetitive control means is finished. Language learning device.
請求項6又は請求項7に記載の言語学習装置において、
前記視聴シーンの繰り返し数及び前記録音シーンの繰り返し数並びに前記反復シーンの繰り返し数が同一であることを特徴とする言語学習装置。
In the language learning device according to claim 6 or 7,
A language learning apparatus, wherein the number of repetitions of the viewing scene, the number of repetitions of the recording scene, and the number of repetitions of the repetition scene are the same.
請求項8に記載の言語学習装置において、
各前記繰り返し数が四回であることを特徴とする言語学習装置。
In the language learning device according to claim 8,
A language learning apparatus characterized in that each of the number of repetitions is four.
請求項1から請求項9のいずれか一項に記載の言語学習装置において、
前記録音ステップの後に、複数の翻訳シーンからなる翻訳ステップを実行する翻訳ステップ実行手段あって、
一の前記翻訳シーンを構成し且つ前記画像及び前記音声に対応した日本語により綴られた日本語文章を含む日本語画像を表示する日本語画像表示手段と、
前記表示中の日本語画像に含まれる前記日本語文章に相当する前記言語による学習者の音声を翻訳音声として集音して録音する翻訳録音手段と、
前記録音された翻訳音声を出力する第1翻訳出力手段と、
前記日本語文章に相当する前記言語の文章を含む画像及び当該言語の文章を発音した音声を出力する第2翻訳出力手段と、
前記日本語画像の表示、前記翻訳音声の集音及び録音、前記翻訳音声の出力、並びに前記第2翻訳出力手段による前記画像及び前記音声の出力を、同一文法の相互に異なる前記日本語文章によりそれぞれ構成される複数の前記翻訳シーンごとに繰り返すように、前記日本語画像表示手段、前記翻訳録音手段、前記第1翻訳出力手段及び前記第2翻訳出力手段を制御する翻訳制御手段と、
を備える翻訳ステップ実行手段を更に備えることを特徴とする言語学習装置。
The language learning apparatus according to any one of claims 1 to 9.
A translation step executing means for executing a translation step consisting of a plurality of translation scenes after the recording step;
Japanese image display means for displaying a Japanese image including one of the translation scenes and including Japanese sentences spelled in Japanese corresponding to the image and the voice;
A translation and recording means for collecting and recording the voice of the learner in the language corresponding to the Japanese sentence contained in the displayed Japanese image as a translation voice;
First translation output means for outputting the recorded translated speech;
A second translation output unit that outputs an image including a sentence of the language corresponding to the Japanese sentence and a voice generated by uttering the sentence of the language;
The display of the Japanese image, the collection and recording of the translated voice, the output of the translated voice, and the output of the image and the voice by the second translation output unit are performed by the Japanese sentences different from each other in the same grammar. Translation control means for controlling the Japanese image display means, the translation recording means, the first translation output means, and the second translation output means so as to repeat for each of a plurality of translation scenes respectively configured;
A language learning apparatus, further comprising: a translation step execution unit comprising:
請求項10に記載の言語学習装置において、
前記翻訳録音手段による集音及び録音を開始する際に操作される翻訳操作手段を更に備え、
前記翻訳録音手段は、前記翻訳操作手段を用いた操作が実行された場合に、前記翻訳音声の集音及び録音を行うことを特徴とする言語学習装置。
In the language learning device according to claim 10,
The system further comprises translation operation means operated at the start of sound collection and recording by the translation recording means,
A language learning apparatus according to claim 1, wherein said translation recording means picks up and records said translated speech when an operation using said translation operation means is performed.
請求項10又は請求項11に記載の言語学習装置において、
前記日本語文章における読点の位置が、当該日本語文章に相当する前記言語の文章における単語の区切りに相当する位置とされていることを特徴とする言語学習装置。
In the language learning device according to claim 10 or 11,
A language learning apparatus, wherein a position of a reading point in the Japanese sentence is a position corresponding to a word break in a sentence of the language corresponding to the Japanese sentence.
請求項10から請求項12のいずれか一項に記載の言語学習装置において、
前記表示中の日本語画像に含まれる前記日本語文章に相当し且つ前記言語により綴られた文章である翻訳文章を発音した音声を出力する際に操作される翻訳音声出力操作手段と、
前記翻訳音声出力操作手段を用いた操作が実行された場合に、前記翻訳文章を発音した音声を出力する翻訳音声出力手段と、
を更に備えることを特徴とする言語学習装置。
The language learning apparatus according to any one of claims 10 to 12,
Translation voice output operation means operated at the time of outputting a voice corresponding to the Japanese sentence contained in the displayed Japanese image and uttering a translated sentence which is a sentence spelled in the language;
Translation voice output means for outputting a voice uttering the translated sentence when an operation using the translation voice output operation means is performed;
The language learning apparatus further comprising:
請求項10から請求項13のいずれか一項に記載の言語学習装置において、
前記録音された翻訳音声の内容を認識する翻訳認識手段と、
前記翻訳認識手段による認識結果と、前記日本語文章に相当する前記言語の文章の内容と、を比較し、両者の一致度を示す一致度情報を出力する翻訳一致度情報出力手段と、
を更に備えることを特徴とする言語学習装置。
In the language learning device according to any one of claims 10 to 13,
Translation recognition means for recognizing the contents of the recorded translated speech;
Translation match degree information output means for comparing the recognition result by the translation recognition means with the content of the sentence of the language corresponding to the Japanese sentence, and outputting match degree information indicating the degree of match between the two;
The language learning apparatus further comprising:
請求項1及び請求項6を引用する請求項10から請求項14のいずれか一項に記載の言語学習装置において、
一の前記翻訳シーンに対応する前記日本語文章の数が、一の前記視聴シーンを構成する前記画像及び前記音声に対応する前記文章の数、一の前記録音シーンを構成する前記画像及び前記音声に対応する前記文章の数及び一の前記反復シーンを構成する前記画像及び前記音声に対応する前記文章の数のいずれよりも少ないことを特徴とする言語学習装置。
The language learning apparatus according to any one of claims 10 to 14, which cites claims 1 and 6.
The number of the Japanese sentences corresponding to the one translation scene is the number of the images corresponding to the one viewing scene and the number of the sentences corresponding to the voice, and the images and the voices constituting the one recording scene A language learning apparatus characterized by having a number smaller than any of the number of the sentences corresponding to and the number of the sentences corresponding to the image and the voice constituting the one repetitive scene.
請求項1及び請求項6を引用する請求項10に記載の言語学習装置において、
前記視聴出力手段、前記録音出力手段、前記反復出力手段又は前記第2翻訳出力手段の少なくともいずれか一つは、出力中の画像及び音声に対応する前記文章を構成する単語の、当該音声としての出力タイミングにおける当該画像内の表示態様を、当該出力タイミング後に当該音声として出力される他の前記単語の当該画像内の表示態様に対して異ならせつつ画像及び音声を出力することを特徴とする言語学習装置。
In the language learning device according to claim 10, wherein claim 1 and claim 6 are cited,
At least one of the viewing output means, the recording output means, the repetitive output means, and the second translation output means is a voice of a word constituting the sentence corresponding to the image and voice being output. A language characterized by outputting an image and a sound while making the display mode in the image at the output timing different from the display mode in the image of the other word output as the voice after the output timing. Learning device.
請求項16に記載の言語学習装置において、
前記表示態様が前記単語の前記画像内の表示色であることを特徴とする言語学習装置。
In the language learning device according to claim 16,
A language learning apparatus characterized in that the display mode is a display color in the image of the word.
請求項1及び請求項6を引用する請求項10に記載の言語学習装置において、
相互に対応する前記視聴シーン、前記反復シーン、前記録音シーン及び前記翻訳シーンの当該シーンを構成する少なくともキャラクタが同一であることを特徴とする言語学習装置。
In the language learning device according to claim 10, wherein claim 1 and claim 6 are cited,
A language learning apparatus characterized in that the viewing scene, the repetitive scene, the recording scene, and at least characters constituting the scene of the translation scene corresponding to each other are the same.
請求項1及び請求項6を引用する請求項10に記載の言語学習装置において、
前記視聴ステップ、前記反復ステップ、前記録音ステップ及び前記翻訳ステップがそれぞれ終了した場合、当該終了したことを示す終了情報を当該終了した学習者に関連付けて出力可能に記録する終了情報記録手段を更に備えることを特徴とする言語学習装置。
In the language learning device according to claim 10, wherein claim 1 and claim 6 are cited,
When each of the viewing step, the repeating step, the recording step, and the translating step is completed, an end information recording unit is further provided which records end information indicating the end, in an outputable manner in association with the end learner. A language learning device characterized by
学習対象たる言語により綴られた文章を含む画像と、当該文章を発音した音声と、を、複数の視聴シーンとして出力する視聴ステップを実行する視聴ステップ実行手段であって、視聴出力手段と、視聴制御手段と、を備える視聴ステップ実行手段と、前記視聴ステップの後に、複数の録音シーンからなる録音ステップを実行する録音ステップ実行手段であって、録音出力手段と、録音手段と、学習者音声出力手段と、録音制御手段と、を備える録音ステップ実行手段と、を備える言語学習装置において実行される言語学習方法であって、
前記視聴ステップは、
一の前記視聴シーンを構成する前記画像及び前記音声である視聴画像及び視聴音声を前記視聴出力手段により出力する視聴出力工程と、
前記視聴画像及び前記視聴音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記視聴シーンごとに繰り返すように、前記視聴制御手段により前記視聴出力手段を制御する視聴制御工程と、
を含み、
前記録音ステップは、
一の前記録音シーンを構成する前記画像及び前記音声である録音画像及び録音音声を前記録音出力手段により出力する録音出力工程と、
前記録音画像及び前記録音音声に対応する前記文章を発音した学習者の音声を前記録音手段により集音して録音する録音工程と、
前記録音した学習者の音声を前記学習者音声出力手段により出力する学習者音声出力工程と、
前記録音画像及び前記録音音声の出力、前記学習者の音声の集音及び録音、及び前記学習者の音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記録音シーンごとに繰り返すように、前記録音出力手段、前記録音手段、及び前記学習者音声出力手段を前記録音制御手段により制御する録音制御工程と、
を含むことを特徴とする言語学習方法。
A viewing step execution means for executing a viewing step of outputting an image including a sentence spelled in a language to be learned and a voice uttering the sentence as a plurality of viewing scenes, the view output means, A viewing step execution means comprising control means; and a recording step execution means for performing a recording step consisting of a plurality of recording scenes after the viewing step, the recording output means, the recording means, the learner voice output A language learning method executed in a language learning apparatus, comprising: recording means; and recording step execution means comprising recording control means,
The viewing step is
A viewing output step of outputting, by the viewing output means, the viewing image and the viewing audio that are the image and the audio that make up the one viewing scene;
A viewing control step of controlling the viewing output means by the viewing control means so that the output of the viewing image and the viewing sound is repeated for each of a plurality of viewing scenes respectively composed of different sentences of the same grammar When,
Including
The recording step is
A recording and outputting step of outputting, by the recording output means, the recording image and the recording sound which are the image and the sound constituting the one recording scene;
A recording step of collecting and recording by the recording means the voice of a learner who has pronounced the recorded image and the sentence corresponding to the recorded voice;
A learner voice output step of outputting the recorded voice of the learner by the learner voice output unit;
The recording image and the output of the recording voice, the collection and recording of the voice of the learner, and the output of the voice of the learner are each of a plurality of the recording scenes respectively configured by the sentences different from each other in the same grammar. A recording control step of controlling the recording output means, the recording means, and the learner voice output means by the recording control means, as described above;
A language learning method characterized by including:
言語学習装置に含まれるコンピュータを、
学習対象たる言語により綴られた文章を含む画像と、当該文章を発音した音声と、を、複数の視聴シーンとして出力する視聴ステップを実行する視聴ステップ実行手段、及び、
前記視聴ステップの後に、複数の録音シーンからなる録音ステップを実行する録音ステップ実行手段、
をとして機能させる言語学習用プログラムであって、
前記視聴ステップ実行手段として機能する前記コンピュータを、
一の前記視聴シーンを構成する前記画像及び前記音声である視聴画像及び視聴音声を出力する視聴出力手段、及び、
前記視聴画像及び前記視聴音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記視聴シーンごとに繰り返すように前記視聴出力手段を制御する視聴制御手段、
として機能させ、
前記録音ステップ実行手段として機能する前記コンピュータを、
一の前記録音シーンを構成する前記画像及び前記音声である録音画像及び録音音声を出力する録音出力手段、
前記録音画像及び前記録音音声に対応する前記文章を発音した学習者の音声を集音して録音する録音手段、
前記録音した学習者の音声を出力する学習者音声出力手段、及び、
前記録音画像及び前記録音音声の出力、前記学習者の音声の集音及び録音、及び前記学習者の音声の出力を、同一文法の相互に異なる前記文章によりそれぞれ構成される複数の前記録音シーンごとに繰り返すように、前記録音出力手段、前記録音手段、及び前記学習者音声出力手段を制御する録音制御手段、
として機能させることを特徴とする言語学習用プログラム。
A computer included in the language learning device,
Viewing step executing means for executing a viewing step of outputting an image including a sentence spelled in a language to be learned and a sound generated by uttering the sentence as a plurality of viewing scenes;
Recording step execution means for executing a recording step consisting of a plurality of recording scenes after the viewing step;
A language learning program that works as a
The computer functioning as the viewing step executing means;
Viewing output means for outputting a viewing image and a viewing sound which are the image and the audio constituting one of the viewing scenes;
Viewing control means for controlling the viewing output means to repeat the output of the viewing image and the viewing audio for each of a plurality of the viewing scenes respectively composed of different sentences of the same grammar;
To act as
The computer functioning as the recording step execution means;
Recording output means for outputting a recorded image and a recorded voice which are the image and the sound constituting the one recorded scene;
Recording means for collecting and recording the voice of a learner who pronounces the recorded image and the sentence corresponding to the recorded voice;
Learner voice output means for outputting the voice of the recorded learner, and
The recording image and the output of the recording voice, the collection and recording of the voice of the learner, and the output of the voice of the learner are each of a plurality of the recording scenes respectively configured by the sentences different from each other in the same grammar. Recording control means for controlling the recording output means, the recording means, and the learner voice output means, as described above;
A language learning program characterized by functioning as
JP2017165973A 2017-08-30 2017-08-30 Language learning device, language learning method, and language learning program Active JP7118389B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017165973A JP7118389B2 (en) 2017-08-30 2017-08-30 Language learning device, language learning method, and language learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017165973A JP7118389B2 (en) 2017-08-30 2017-08-30 Language learning device, language learning method, and language learning program

Publications (2)

Publication Number Publication Date
JP2019045575A true JP2019045575A (en) 2019-03-22
JP7118389B2 JP7118389B2 (en) 2022-08-16

Family

ID=65814252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017165973A Active JP7118389B2 (en) 2017-08-30 2017-08-30 Language learning device, language learning method, and language learning program

Country Status (1)

Country Link
JP (1) JP7118389B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7166696B1 (en) * 2022-07-07 2022-11-08 株式会社Ongli Information processing method, program and information processing device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883041A (en) * 1994-01-26 1996-03-26 E Syst Inc Method and system for education based on interactive visual and hearing presentation system
JPH10143061A (en) * 1996-11-14 1998-05-29 Nippon Bairingaru Media Kk Foreign language learning device
JPH10228230A (en) * 1997-02-13 1998-08-25 Ee I Soft Kk Learning support device and problem answer showing method
JP2000105530A (en) * 1998-09-29 2000-04-11 Gakken Co Ltd Foreign language learning system
WO2005122106A1 (en) * 2004-06-07 2005-12-22 Takaaki Ookura Learning support system
JP2007148170A (en) * 2005-11-29 2007-06-14 Cai Media Kyodo Kaihatsu:Kk Foreign language learning support system
JP2010271615A (en) * 2009-05-25 2010-12-02 Nintendo Co Ltd Program and device for evaluating pronunciation
JP2011118292A (en) * 2009-12-07 2011-06-16 Hiromi Watanabe E-learning system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883041A (en) * 1994-01-26 1996-03-26 E Syst Inc Method and system for education based on interactive visual and hearing presentation system
JPH10143061A (en) * 1996-11-14 1998-05-29 Nippon Bairingaru Media Kk Foreign language learning device
JPH10228230A (en) * 1997-02-13 1998-08-25 Ee I Soft Kk Learning support device and problem answer showing method
JP2000105530A (en) * 1998-09-29 2000-04-11 Gakken Co Ltd Foreign language learning system
WO2005122106A1 (en) * 2004-06-07 2005-12-22 Takaaki Ookura Learning support system
JP2007148170A (en) * 2005-11-29 2007-06-14 Cai Media Kyodo Kaihatsu:Kk Foreign language learning support system
JP2010271615A (en) * 2009-05-25 2010-12-02 Nintendo Co Ltd Program and device for evaluating pronunciation
JP2011118292A (en) * 2009-12-07 2011-06-16 Hiromi Watanabe E-learning system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"学研 えいご三昧DS クッキングママ 3 ストライクウィッチーズ 蒼空の電撃戦 新隊長 奮闘する", 週刊ファミ通, vol. 第24巻、 第51号, JPN6021022052, 1 December 2009 (2009-12-01), JP, pages 101, ISSN: 0004528243 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7166696B1 (en) * 2022-07-07 2022-11-08 株式会社Ongli Information processing method, program and information processing device

Also Published As

Publication number Publication date
JP7118389B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
US6324507B1 (en) Speech recognition enrollment for non-readers and displayless devices
WO2019174072A1 (en) Intelligent robot based training method and apparatus, computer device and storage medium
US7149690B2 (en) Method and apparatus for interactive language instruction
US20120081371A1 (en) Dialog design tool and method
JP6419924B1 (en) Learning support system and learning support method
JP2016045420A (en) Pronunciation learning support device and program
WO2014160316A2 (en) Device, method, and graphical user interface for a group reading environment
WO2014151884A2 (en) Device, method, and graphical user interface for a group reading environment
CN112053595B (en) Computer-implemented training system
JP6166831B1 (en) Word learning support device, word learning support program, and word learning support method
JP6466391B2 (en) Language learning device
JP6841309B2 (en) Electronics and programs
JP7118389B2 (en) Language learning device, language learning method, and language learning program
JP4899383B2 (en) Language learning support method
KR20030065259A (en) Apparatus and method of learnning languages by sound recognition and sotring media of it
KR20020058147A (en) step studying method using internet
KR20190070683A (en) Apparatus and method for constructing and providing lecture contents
JP4659433B2 (en) Problem automatic creation device and problem automatic creation program
KR100717080B1 (en) Method For Studying Chinese Language
KR20210135151A (en) Method of interactive foreign language learning by voice talking each other using voice recognition function and TTS function
KR101180846B1 (en) Method for Music-based Language Training and On-Line Training System thereof
KR20020024828A (en) Language study method by interactive conversation on Internet
JP2017009875A (en) Learning support device and program
Sporka Non-speech sounds for user interface control
JP7331025B2 (en) LEARNING SUPPORT SYSTEM, LEARNING SUPPORT METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220727

R150 Certificate of patent or registration of utility model

Ref document number: 7118389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150