JP6466391B2 - Language learning device - Google Patents

Language learning device

Info

Publication number
JP6466391B2
JP6466391B2 JP2016243265A JP2016243265A JP6466391B2 JP 6466391 B2 JP6466391 B2 JP 6466391B2 JP 2016243265 A JP2016243265 A JP 2016243265A JP 2016243265 A JP2016243265 A JP 2016243265A JP 6466391 B2 JP6466391 B2 JP 6466391B2
Authority
JP
Japan
Prior art keywords
image
example sentence
voice data
notation
sentence text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016243265A
Other languages
Japanese (ja)
Other versions
JP2018097250A (en
Inventor
子竜 金本
子竜 金本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funny Co Ltd
Original Assignee
Funny Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funny Co Ltd filed Critical Funny Co Ltd
Priority to JP2016243265A priority Critical patent/JP6466391B2/en
Publication of JP2018097250A publication Critical patent/JP2018097250A/en
Application granted granted Critical
Publication of JP6466391B2 publication Critical patent/JP6466391B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は,外国語を効率よく学習するための言語学習装置に関する。   The present invention relates to a language learning apparatus for efficiently learning a foreign language.

近年では,オンライン英会話等インターネットを使用した外国語学習サービスが増え,外国語学習の方法は多肢にわたるが,独学で英語等の外国語を学習する場合,未だに,外国語で記された語学学習用の本を繰り返し読み,時には音読し,また,記録媒体に記録されているネイティブスピーカなどによる模範音声を再生し,この模範音声を繰り返し聴取するとともに,該模範音声を真似て繰り返し発音ないし発声することで外国語を習得することが根強く行われている。   In recent years, the number of foreign language learning services using the Internet, such as online English conversation, has increased, and there are many ways to learn foreign languages. However, when learning foreign languages such as English by yourself, language learning written in foreign languages is still in progress. Repeated reading, sometimes reading aloud books, playing back model voices from a native speaker, etc. recorded on the recording medium, listening to the model voices repeatedly, and imitating the model voices repeatedly to pronounce or utter In this way, learning a foreign language has been carried out.

なお,独学でも,ユーザの音声を録音し,録音した自身の音声と模範音声とを聞き比べることで,正しい発音,アクセントを身につけることもできる(特許文献1)。   In self-study, it is also possible to acquire correct pronunciation and accent by recording the user's voice and comparing the recorded voice with the model voice (Patent Document 1).

特開2000−250402号JP 2000-250402 A

しかし,通常,語学学習用の書籍等は専ら文字ばかりで表現され,抽象的な会話文や文章が並び,実際にどういった場面で使われるものであるか分かりづらくテーマにも,応用場面と対応する現実味がないことが多く,書籍等に記載されたテキストを繰り返し発音するだけでは,日常会話における発音,会話のみならず,意味合いの認識,用例など幅広い知識が定着しにくい問題があった。   However, books for language learning are usually expressed exclusively in letters, and abstract conversational sentences and sentences are arranged side by side. There is often no corresponding reality, and there is a problem that it is difficult to establish a wide range of knowledge, such as not only pronunciation and conversation in daily conversation, but also recognition of meanings, and examples only by repeating pronunciation of texts written in books.

また,単に模範音声を真似て発声した自身の音声を録音し,録音した自身の音声と模範音声とを聞き比べながら言語学習を進めるのみでは面白みに欠け,学習意欲の減退を招いてしまう。   Also, simply recording your own voice uttered by imitating the model voice, and proceeding with language learning while listening to and comparing the recorded voice with the model voice will not be interesting and will reduce your willingness to learn.

本発明は,上記問題点に鑑みてなされたものであって,独学でも興味を持って継続的に学習を行うことができる上,学習効率を高めてユーザの利便性を向上させ,より効果的に記憶学習を行える言語学習装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and it is possible to continuously learn with interest even by self-study. Further, the present invention can improve learning efficiency and improve user convenience, and is more effective. An object of the present invention is to provide a language learning device capable of memory learning.

以下に,課題を解決するための手段を,発明を実施するための形態で使用する符号と共に記載する。この符号は,特許請求の範囲の記載と発明を実施するための形態の記載との対応を明らかにするために記載したものであり,言うまでもなく,本願発明の技術的範囲の解釈に制限的に用いられるものではない。   Hereinafter, means for solving the problem will be described together with reference numerals used in the embodiment for carrying out the invention. This code is used to clarify the correspondence between the description of the scope of claims and the description of the mode for carrying out the invention. Needless to say, this code is limited to the interpretation of the technical scope of the present invention. Not used.

本発明の言語学習装置1は,
ユーザの操作入力を受けつける操作入力手段40と,
画像データを表示する表示手段50と,
ユーザが発音したユーザ音声データを取得する音声入力手段60と,
音声データを出力させる音声出力手段70と,
各例文テキストET(単語,熟語,文,文章を含む。)毎の,自国語表記111と例文テキストETに対応するイラスト113とを含む第1の画像101の画像データと,例文テキストETの外国語表記112と前記イラスト113と同一又はこれと異なるイラストを含む第2の画像102の画像データとを格納する画像データ記憶手段21と,
前記自国語表記111と前記外国語表記112の読み(発音)の模範音声データを格納する模範音声データ記憶手段22と,
各例文テキストET毎の,自国語表記111及び外国語表記112と,例文テキストET以外の所定数の例文テキストET’1・・・ET’nの外国語表記112’1・・・112’nとを含む確認用画像103の画像データを格納する確認用画像データ記憶手段23と,
前記ユーザ音声データを格納するユーザ音声データ記憶手段24と,
各例文テキスト毎に,前記第1の画像101の画像データ及び前記自国語表記111の読み(発音)の模範音声データと,前記第2の画像102の画像データ及び前記外国語表記112の読み(発音)の模範音声データを,それぞれ,前記画像データ記憶手段21と,前記模範音声データ記憶手段22から読みだし,
前記第1の画像101表示する間前記自国語表記111の読みの模範音声データの出力をし,一定時間前記第1の画像を表示した後前記第2の画像に切り替えて,該第2の画像102表示する間前記外国語表記112の読みの模範音声データの出力をし,前記第1の画像101及び前記第2の画像102の表示を一定時間に制御する制御処理を含む暗記モード処理手段31と,
各例文テキスト毎に,前記確認用画像データ記憶手段23から前記確認用画像103の画像データを読み出し,前記確認用画像103と同一の画像を表示し,
画面上の複数の外国語表記112,112’1・・・112’nから一の外国語表記の選択入力を受け付け,選択された外国語表記が,前記例文テキストETの外国語表記に該当するか否かを判断し,判定結果を音声による出力又は画面上に表示する確認モード処理手段32と,
前記模範音声データ記憶手段22に記憶された外国語表記112の読みの模範音声データと,前記ユーザ音声データ記憶手段24に記憶されたユーザ音声データとを,音声として前記音声出力手段70から出力する制御処理を含む発音特訓モード処理手段33と,
前記各例文テキスト毎に,前記ユーザ音声データ記憶手段24に格納されたユーザ音声データと,前記例文テキストに対応する外国語表記112の読みの模範音声データを,それぞれ,前記模範音声データ記憶手段22とユーザ音声データ記憶手段24から読みだし,前記例文テキストETの外国語表記に同一又は近似するか否かを判断し,判定結果として,同一又は近似するときは,前記例文テキストの外国語表記112を表示し,同一又は近似しないときは,当該発音に対応するスペルを表示すると共に,該当又は非該当の旨を画面上に表示する発音確認モードS4を作動する発音確認モード処理手段34と
から成ることを特徴とするものである(請求項1)。
The language learning apparatus 1 according to the present invention includes:
Operation input means 40 for receiving user operation inputs;
Display means 50 for displaying image data;
Voice input means 60 for acquiring user voice data pronounced by the user;
Audio output means 70 for outputting audio data;
For each example sentence text ET (including words, idioms, sentences, sentences), the image data of the first image 101 including the native language notation 111 and the illustration 113 corresponding to the example sentence text ET, and the foreign language of the example sentence text ET Image data storage means 21 for storing the word notation 112 and the image data of the second image 102 including the same or different illustration as the illustration 113;
Model voice data storage means 22 for storing model voice data of reading (pronunciation) of the native language notation 111 and the foreign language notation 112;
For each example sentence text ET, the native language notation 111 and the foreign language notation 112 and a predetermined number of example sentence texts ET′1... ET′n other than the example sentence text ET 112′1. Confirmation image data storage means 23 for storing the image data of the confirmation image 103 including:
User voice data storage means 24 for storing the user voice data;
For each example sentence text, image data of the first image 101 and model voice data of reading (pronunciation) of the native language notation 111, image data of the second image 102 and reading of the foreign language notation 112 ( (Speech) model voice data is read out from the image data storage means 21 and the model voice data storage means 22, respectively.
The read and the output of the model voice data between the native language representation 111 for displaying the first image 101, is switched to the second image after displaying a predetermined time the first image, the second A memorization mode process including a control process for outputting exemplary voice data of reading of the foreign language notation 112 while displaying the image 102 and controlling the display of the first image 101 and the second image 102 for a predetermined time. Means 31;
For each example sentence text, the image data of the confirmation image 103 is read from the confirmation image data storage means 23, and the same image as the confirmation image 103 is displayed.
The selection input of one foreign language notation is received from a plurality of foreign language notations 112, 112′1,... 112′n on the screen, and the selected foreign language notation corresponds to the foreign language notation of the example sentence text ET. Confirmation mode processing means 32 for judging whether or not and outputting the judgment result by voice or displaying on the screen;
The voice output means 70 outputs the voice data of the reading of the foreign language notation 112 stored in the voice data storage means 22 and the user voice data stored in the user voice data storage means 24 as voice. Pronunciation special training mode processing means 33 including control processing;
For each example sentence text, the user voice data stored in the user voice data storage unit 24 and the model voice data of the reading of the foreign language notation 112 corresponding to the example sentence text, respectively. Is read from the user voice data storage means 24, and it is determined whether or not it is the same or similar to the foreign language notation of the example sentence text ET. Is displayed, and when it is not the same or approximate, the pronunciation confirmation mode processing means 34 for operating the pronunciation confirmation mode S4 for displaying the spelling corresponding to the pronunciation and displaying the corresponding or non-applicable on the screen. (Claim 1).

また,前記暗記モード処理手段31が,所定数の例文テキストETについて,各例文テキストET毎に,前記第1の画像101表示する間前記自国語表記111の読みの模範音声データの出力と,一定時間前記第1の画像を表示した後前記第2の画像に切り替えて,前記第2の画像102表示する間前記外国語表記112の読みの模範音声データの出力とを順次行うことを1周とし,(前記1周を本願明細書において,「周回」と言う。),複数回周回し,前記第1及び第2の画像101,102の表示時間は一定にしつつ,周回毎に前記模範音声データの出力速度を可変とする制御処理を含むものでも良い(請求項2)。 In addition, the memorization mode processing unit 31 outputs, for each example sentence text ET, the exemplary voice data of the reading of the native language notation 111 while displaying the first image 101 for each example sentence text ET; After displaying the first image for a certain period of time, switching to the second image and sequentially outputting the model voice data for reading the foreign language notation 112 while the second image 102 is displayed. Laps (the one lap is referred to as “turn” in the present specification), and a plurality of laps are performed, and the display time of the first and second images 101 and 102 is constant, and the above-mentioned example is set for each lap. Control processing for changing the output speed of the audio data may be included (claim 2).

さらに,前記周回は,所定数,例えば10個の例文テキストETをひとまとまりとして,前記第1の画像101表示する間前記自国語表記111の読みの模範音声データの出力と,一定時間前記第1の画像を表示した後前記第2の画像に切り替えて,前記第2の画像102表示する間前記外国語表記112の読みの模範音声データの出力とを順次行う(図4;1/10〜図7;2/10そして図示せざる3/10〜10/10)ものであるのに対し,ここでは,単一の例文テキストETについて,前記第1の画像101の表示及び自国語表記111の読みの模範音声データの出力をし,前記第2の画面102の表示及び外国語表記112の読みの模範音声データの出力をすることを1ターン(図4;1/10及び図5;1/10の連続で完結)とし,つまり,前記暗記モード処理手段31が,各例文テキストET毎に,前記第1の画像101の表示及び自国語表記111の読みの模範音声データの出力をし,前記第2の画像102の表示及び外国語表記112の読みの模範音声データの出力をすることを1ターンとする。 Furthermore, the orbiting a predetermined number, for example, as a cluster together ten sentences text ET, the output of the model voice data reading between the native language representation 111 for displaying the first image 101, the fixed time first switch to the after displaying the first image a second image, said sequentially performed and output of the model voice data reading between the foreign language notation 112 for displaying a second image 102 (FIG. 4; 1/10 7 FIG. 7; 2/10 and 3/10 to 10/10 not shown), here, for the single example sentence text ET, the display of the first image 101 and the native language notation 111 To output the model voice data of the reading of the second screen 102 and to output the model voice data of the reading of the foreign language notation 112 (FIG. 4; 1/10 and FIG. 5; 1). / 10 consecutive In other words, the memorization mode processing means 31 outputs, for each example sentence text ET, exemplary voice data for display of the first image 101 and reading of the native language notation 111, and for the second image. The output of the model voice data for the display of 102 and the reading of the foreign language notation 112 is one turn.

そして該1ターンの画像表示及び模範音声データの出力を複数回連続して繰り返すことを所定数の例文テキストETについて実行し,全画像の表示時間は一定にしつつ,ターン毎に模範音声データの出力速度を可変とする制御処理を含むものでも良い(請求項3)。   Then, the image display of one turn and the output of the model voice data are continuously repeated a plurality of times for a predetermined number of example sentence texts ET, and the model voice data is output for each turn while keeping the display time of all the images constant. A control process for changing the speed may be included (claim 3).

なお,前記暗記モード処理手段31が,例文テキストET毎の,前記第1の画像101の表示及び自国語表記111の模範音声データの出力と,前記第2の画像102の表示及び前記外国語表記112の模範音声データの出力との実行順序を可変とする制御処理を有するものとしても良い(請求項4)。   The memorization mode processing means 31 displays the first image 101 and the model voice data of the native language notation 111, the display of the second image 102 and the foreign language notation for each example sentence text ET. It is also possible to have a control process for changing the execution order of the output of the exemplary voice data 112.

また,本発明の言語学習装置1は,所定数の例文テキストETについて,前記暗記モード処理手段31を実行して暗記モードS1を作動させ,続けて,前記確認モード処理手段32を実行して確認モードS2を作動させるモード制御処理手段35を有するものとしても良い(請求項5)。   Further, the language learning device 1 of the present invention executes the memorization mode processing means 31 to activate the memorization mode S1 for a predetermined number of example sentence texts ET, and subsequently executes the confirmation mode processing means 32 to confirm. Mode control processing means 35 for activating the mode S2 may be included (claim 5).

本発明の言語学習装置1によれば,学習する例文テキストETについて自国語表記及び外国語表記の文字のみでなく,例文テキストETに対応するイラストが表示され,さらには,前記自国語表記及び前記外国語表記の読みの音声が出力され,視覚・音声を通じて外国語を効果的に記憶し学習することができるものである。   According to the language learning device 1 of the present invention, illustrations corresponding to the example sentence text ET are displayed for the example sentence text ET to be learned, as well as characters corresponding to the example sentence text ET. Sounds of reading in foreign languages are output, and foreign languages can be effectively stored and learned through visual and audio.

さらに,本発明の言語学習装置1によれば,学習した例文テキストETについて記憶が定着しているか確かめることが可能である。   Furthermore, according to the language learning device 1 of the present invention, it is possible to confirm whether or not the memory is fixed for the learned example sentence text ET.

さらには,ユーザは自分の発音と模範音声とを客観的に聞き比べることができるので,発音の誤りを容易に認識でき,この誤りを是正することにより,早い上達が望まれるようになる。   Furthermore, since the user can objectively hear and compare his / her pronunciation and the model voice, he can easily recognize the pronunciation error and correct this error so that quick improvement is desired.

また,本発明の言語学習装置1によれば,学習する各例文テキストET毎に,自国語表記,外国語表記及び文字イラストの表示と,模範音声の出力とを繰り返すように設定でき,また,繰り返す毎に前記模範音声の速度を変えることで,集中力を高め,効率の良い記憶学習ができる。   In addition, according to the language learning device 1 of the present invention, for each example sentence text ET to be learned, it is possible to repeat the display of the native language notation, the foreign language notation and the character illustration, and the output of the model voice, By changing the speed of the model voice each time it is repeated, concentration can be improved and efficient memory learning can be performed.

また,前記暗記モード処理手段31により実行される暗記モードS1の作動後に続けて前記確認モード処理手段32により実行される確認モードS2を作動させることで,暗記した内容をすぐに確認でき,より効率的な学習が望まれる。   Further, by operating the confirmation mode S2 executed by the confirmation mode processing means 32 after the operation of the memorization mode S1 executed by the memorization mode processing means 31, the memorized contents can be immediately confirmed, and more efficient. Learning is desired.

さらに,発音確認モード処理手段34により,ユーザが自己の発音を例文テキストに対応するスペル又は異なるスペルにより表示されることにより,不正確な発音がどの程度に異なるか,すなわち,自己の発音のネイティブスピーカーとの差異を文字により認識することができる。   Furthermore, the pronunciation confirmation mode processing means 34 displays how the user pronounces his / her pronunciation with a spelling corresponding to the example sentence text or a different spelling, so that the inaccurate pronunciation differs, that is, the native pronunciation of his / her own pronunciation. Differences from speakers can be recognized by letters.

言語学習装置1(本発明が適用された端末装置10)のハードウェア構成を示す。1 shows a hardware configuration of a language learning device 1 (a terminal device 10 to which the present invention is applied). 第1実施形態に係る言語学習装置1(本発明が適用された第1実施形態に係る端末装置10)で実現される各処理手段の構成を示す。The structure of each process means implement | achieved with the language learning apparatus 1 (Terminal device 10 which concerns on 1st Embodiment to which this invention was applied) which concerns on 1st Embodiment is shown. 第1実施形態に係る言語学習装置1(本発明が適用された第1実施形態に係る端末装置10)により作動される学習モードを示す。The learning mode operated by the language learning apparatus 1 which concerns on 1st Embodiment (The terminal device 10 which concerns on 1st Embodiment to which this invention was applied) is shown. 暗記モードS1における第1の画面101の一例を示す。An example of the 1st screen 101 in memorization mode S1 is shown. 暗記モードS1における第2の画面102の一例を示す。An example of the 2nd screen 102 in memorization mode S1 is shown. 暗記モードS1における第1の画面101の他の例を示す。The other example of the 1st screen 101 in memorization mode S1 is shown. 暗記モードS1における第2の画面102の他の例を示す。The other example of the 2nd screen 102 in memorization mode S1 is shown. 確認モードS2の確認用画像103の一例を示す。An example of the confirmation image 103 in the confirmation mode S2 is shown. 発音特訓モードS3の作動画面の一例を示す。An example of the operation | movement screen of pronunciation special training mode S3 is shown. 発音確認モードS4の音声入力段階の作動画面の一例を示す。An example of the operation | movement screen of the audio | voice input stage of pronunciation confirmation mode S4 is shown. 同上発音確認モードS4の発音後の音声に対応するスペルを表示する作動画面を示す。The operation screen which displays the spelling corresponding to the sound after pronunciation of the pronunciation confirmation mode S4 is shown. 同上発音確認モードS4のユーザの発音の判定を示す図である。It is a figure which shows the determination of a user's pronunciation in pronunciation confirmation mode S4 same as the above.

以下に,添付図面を参照しながら本発明の言語学習装置1の第一実施形態について説明する。本発明の言語学習装置1は,各種言語(英語,仏語,韓国語等)を学習するための装置であり,以下では学習する外国語を英語とし,自国語を日本語として説明を行うが,外国語は英語に,また,自国語は日本語に,それぞれ限定されるものではない。すなわち,ユーザの母国語の種類を問わず,また,外国語の種類を問わず学習が可能である。   Hereinafter, a first embodiment of a language learning device 1 according to the present invention will be described with reference to the accompanying drawings. The language learning device 1 of the present invention is a device for learning various languages (English, French, Korean, etc.). In the following description, the foreign language to be learned is English, and the native language is Japanese. Foreign languages are not limited to English, and native languages are not limited to Japanese. That is, learning is possible regardless of the type of the user's native language and regardless of the type of foreign language.

本発明の言語学習装置1は,例えば,スマートフォン,タブレット型端末,ノート型PC(Personal Computer),デスクトップPC,携帯電話機及び,PDA(Personal Digital Assistant)等の端末装置10により実現される。本実施形態では,端末装置10にスマートフォンを使用する。   The language learning device 1 of the present invention is realized by a terminal device 10 such as a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, and a PDA (Personal Digital Assistant). In the present embodiment, a smartphone is used as the terminal device 10.

次に,本実施形態に使用される端末装置(スマートフォン)10の構成について説明する。   Next, the configuration of the terminal device (smartphone) 10 used in the present embodiment will be described.

本実施形態に使用される端末装置(スマートフォン)10は,図1に示すように,端末内部の情報を管理し制御すると共に,本発明を適用したアプリケーションを実行する演算処理装置(CPU)12と,演算処理データや後述のマイクロフォンで入力された音声データを一時的に記憶するメインメモリ(RAM)13と,前記アプリケーション及び各種データが格納する記憶装置(ROM,HDD)14と,演算結果及び,ユーザの入力操作に応じたテキストやイラストなどの各種のデータを表示するディスプレイと,好ましくは,これと一体化されたタッチパネルから成る操作パネル15と,ユーザが発する音声を録音するためのマイクロフォン16と,後述する模範音声データやユーザの音声を録音したユーザ音声データを出力するスピーカー17と,外部サーバとインターネットを介してデータを送受信する無線通信用インタフェース18とを備える。   As shown in FIG. 1, a terminal device (smart phone) 10 used in the present embodiment manages and controls information inside a terminal, and also executes an arithmetic processing device (CPU) 12 that executes an application to which the present invention is applied. , A main memory (RAM) 13 for temporarily storing arithmetic processing data and voice data input by a microphone to be described later, a storage device (ROM, HDD) 14 for storing the application and various data, an arithmetic result, A display for displaying various data such as texts and illustrations according to a user's input operation, an operation panel 15 preferably composed of a touch panel integrated therewith, and a microphone 16 for recording voices uttered by the user , The model voice data described later and the user voice data recording the user voice are output. It comprises a manufacturers 17, and a wireless communication interface 18 for transmitting and receiving data through an external server and the Internet.

なお,上述の各装置間は,制御信号あるいはデータ信号を伝送するために設けられたバス19で接続されている。   The above-described devices are connected by a bus 19 provided for transmitting control signals or data signals.

そして,本発明の言語学習装置1が有する各手段を実行可能とするために,上述の構成を有するスマートフォン(端末装置)10に,本発明を適用したアプリケーションをインストールさせ,スマートフォン(端末装置)10を前記アプリケーションと協働して機能させることにより,図2に示すような,本発明の言語学習装置1が有する機能ブロックが実現される。なお,スマートフォン(端末装置)10は,外部のアプリケーション提供サーバからインターネットを介してアプリケーションをダウンロードしインストールして実行してもよく,また,例えば,USBメモリ及びDVD−ROM等の記録媒体に記録されたアプリケーションをダウンロードし,端末装置10にインストールして実行してもよい。   And in order to make each means which the language learning apparatus 1 of this invention has executable, the application which applied this invention is installed in the smart phone (terminal device) 10 which has the above-mentioned structure, and the smart phone (terminal device) 10 Is made to function in cooperation with the application, thereby realizing the functional blocks of the language learning apparatus 1 of the present invention as shown in FIG. The smartphone (terminal device) 10 may download and install an application from an external application providing server via the Internet, and may be recorded on a recording medium such as a USB memory or a DVD-ROM. The downloaded application may be downloaded and installed in the terminal device 10 for execution.

なお,本発明に使用される端末装置10について,一般に市販されているスマートフォン,PC等は通常上記構成(演算処理装置12,メインメモリ13,記憶装置14,操作パネル15,マイクロフォン16,スピーカー17,無線通信用インタフェース18)を備えているため,これらに本発明を適用したアプリケーションをインストールすれば,容易に本発明を実施することができる。   As for the terminal device 10 used in the present invention, a commercially available smartphone, PC, etc. are usually configured as described above (the arithmetic processing device 12, the main memory 13, the storage device 14, the operation panel 15, the microphone 16, the speaker 17, Since the wireless communication interface 18) is provided, the present invention can be easily implemented by installing an application to which the present invention is applied.

図2に示すように,前記アプリケーションをインストールした端末装置10は,記憶手段20,処理手段30,操作入力手段40,表示手段50,音声入力手段60,音声出力手段70を備える。   As shown in FIG. 2, the terminal device 10 in which the application is installed includes a storage unit 20, a processing unit 30, an operation input unit 40, a display unit 50, a voice input unit 60, and a voice output unit 70.

本実施形態の記憶手段20は,画像データ記憶手段21と,模範音声データ記憶手段22と,確認用画像データ記憶手段23と,ユーザ音声データ記憶手段24とを含むものである。   The storage unit 20 of the present embodiment includes an image data storage unit 21, an exemplary audio data storage unit 22, a confirmation image data storage unit 23, and a user audio data storage unit 24.

前記画像データ記憶手段21は,学習する複数の例文テキスト(単語,熟語,文,文章を含む。)それぞれについての,例文テキストET(図示しないが,便宜上記号ETとする)の日本語表記111と該例文テキストに対応するイラスト113とからなる第1の画像101の画像データと,前記例文テキストETの英語表記112と前記イラスト113とからなる第2の画像102(とからなる1セット)の画像データを格納する。   The image data storage means 21 includes a Japanese description 111 of an example sentence text ET (not shown, but for convenience, symbol ET) for each of a plurality of example sentence texts to be learned (including words, idioms, sentences, and sentences). Image data of a first image 101 composed of an illustration 113 corresponding to the example sentence text, and an image of a second image 102 (one set composed of) an English notation 112 of the example sentence text ET and the illustration 113 Store the data.

前記模範音声データ記憶手段22は,前記日本語表記111と前記英語表記112の読み(発音)の模範音声データを格納する。   The model voice data storage means 22 stores model voice data of reading (pronunciation) of the Japanese notation 111 and the English notation 112.

前記確認用画像データ記憶手段23は,学習する複数の例文テキストETそれぞれについての,該例文テキストETの日本語表記111及び英語表記112と,該例文テキストET以外の所定数の例文テキストET’・・・ET’の英語表記112’・・・112’とが同時に表示される確認用画像103の画像データ(確認用画像データ)を格納する。 The confirmation image data storage means 23 stores, for each of a plurality of example sentence texts ET to be learned, Japanese notation 111 and English notation 112 of the example sentence text ET, and a predetermined number of example sentence texts ET ′ 1 other than the example sentence text ET. · · · ET 'English notation n 112' 1 ··· 112 'and n stores the image data of the confirmation image 103 (confirmation image data) to be displayed simultaneously.

前記ユーザ音声データ記憶手段24は,ユーザが発する音声を音声入力手段60にて取得したユーザ音声データを格納する。   The user voice data storage means 24 stores user voice data obtained by the voice input means 60 for the voice uttered by the user.

なお,記憶手段20は,上述以外に,効果音,BGM等のその他の音声データ,メニュー画面,設定画面等その他の画面データを格納するものとして良い。   In addition to the above, the storage means 20 may store other sound data such as sound effects and BGM, other screen data such as a menu screen and a setting screen.

本実施形態の処理手段30は,少なくとも,暗記モード処理手段31,確認モード処理手段32,発音特訓モード処理手段33及び発音確認モード処理手段34を含むものである。   The processing means 30 of this embodiment includes at least a memorization mode processing means 31, a confirmation mode processing means 32, a pronunciation special training mode processing means 33, and a pronunciation confirmation mode processing means 34.

本実施形態の前記暗記モード処理手段31は,学習する所定数の各例文テキストET毎に,前記画像データ記憶手段21と前記模範音声データ記憶手段22とから読みだし,例文テキストETの日本語表記111と該例文テキストに対応するイラスト113とからなる第1の画像101を表示すると共に前記日本語表記111の読みの模範音声データを出力し,前記例文テキストETの英語表記112と前記イラスト113が同時に表わされた第2の画像102を表示すると共に前記英語表記112の読みの模範音声データを出力し,前記第1の画像101及び前記第2の画像102の表示時間は一定とする制御処理を含むものである。   The memorization mode processing means 31 of the present embodiment reads out from the image data storage means 21 and the model voice data storage means 22 for each predetermined number of example sentence texts ET to be learned, and describes the example sentence text ET in Japanese. The first image 101 composed of 111 and the illustration 113 corresponding to the example sentence text is displayed and the model voice data of the reading of the Japanese notation 111 is output. The English notation 112 of the example sentence text ET and the illustration 113 Control processing for displaying the second image 102 displayed simultaneously and outputting the exemplary voice data of the reading in the English notation 112 so that the display time of the first image 101 and the second image 102 is constant. Is included.

なお,前記暗記モード処理手段31が,一の例文テキストETについて,前記第1の画像101の表示及び自国語表記111の読みの模範音声データの出力と,前記第2の画像102を表示及び前記外国語表記112の読みの模範音声データの出力との順序を可変とする制御処理を含むものとしても良い。   The memorization mode processing means 31 displays the display of the first image 101 and the exemplary speech data of the reading of the native language notation 111, the second image 102, and the second image 102 for one example sentence text ET. A control process for changing the order of the reading of the exemplary voice data of reading in the foreign language notation 112 may be included.

前記確認モード処理手段32は,前記確認用画像データ記憶手段23から読み出し,例文テキストETの日本語表記111及び英語表記112と,該例文テキストET以外の複数の例文テキストET’・・・ET’の外国語表記112’・・・112’とが同時に表示される前記確認用画像103を表示し,ユーザによる画面上の複数の英語表記112,112’・・・112’から一の英語表記の選択(タッチあるいはクリック)入力を受け付け,選択された英語表記が前記例文テキストETの英文(つまり,前記日本語表記111の訳文)に該当するか否かを判断し,判定結果を音声にて出力又は画像にて表示し,一定時間経過後に次の確認用画像103に切り替え表示させ,これを学習する所定の例文テキストETの数だけ繰り返す制御処理を含むものである。 The confirmation mode processing means 32 reads out from the confirmation image data storage means 23, the Japanese expression 111 and the English expression 112 of the example sentence text ET, and a plurality of example sentence texts ET ′ 1 ... ET other than the example sentence text ET. 1 · · · 112 'n foreign language representation 112''and n are displaying the confirmation image 103 to be displayed at the same time, a plurality of English name 112, 112 on the screen by the user' from · · · 112 'n A selection (touch or click) input of one English notation is accepted, it is determined whether or not the selected English notation corresponds to the English sentence of the example sentence text ET (that is, the translation of the Japanese notation 111), and the determination result Is output by voice or displayed as an image, and after a lapse of a certain period of time, the image is switched to the next confirmation image 103, and this is repeated for the number of predetermined example sentence texts ET to be learned. It is intended to include controls processing.

前記発音特訓モード処理手段33は,模範音声データ記憶手段22に記憶された英語表記112の読みの模範音声データと,ユーザ音声データ記憶手段24に記憶されたユーザ音声データとを交互に発音させる制御処理を含むものである。   The pronunciation special training mode processing means 33 is a control for alternately generating pronunciation voice data of the English notation 112 stored in the model voice data storage means 22 and user voice data stored in the user voice data storage means 24. It includes processing.

また,図2中の前記操作入力手段40は,表示画面(タッチパネル)に対するユーザのタッチ等による選択操作の入力を受けつけ,前記表示手段50は,画像データを表示し,前記音声入力手段60は,ユーザが発音したユーザ音声データを取得し,前記音声出力手段70は,模範音声データ,ユーザ音声データ,効果音データ,BGMデータを含む各種音声データを出力させるものである。   Further, the operation input means 40 in FIG. 2 accepts an input of a selection operation by a user touch or the like on a display screen (touch panel), the display means 50 displays image data, and the voice input means 60 User voice data generated by the user is acquired, and the voice output means 70 outputs various voice data including model voice data, user voice data, sound effect data, and BGM data.

さらに,図2において,処理手段30の発音確認モード処理手段34は,模範音声データ記憶手段22に記憶された英語表記112の読みの模範音声データと,ユーザ音声データ記憶手段24に記憶されたユーザの発音による音声データを比較し,ユーザの発音が模範音声と同一ないし近似していれば,前述のように,例えば,正解音「ピンポーン」を出力し,前記比較により,ユーザの発音が不適当であれば,不正解音「ブー」を出力させても良い。この場合,この発音確認モード処理手段34に設けられた音声認識手段により,認識したユーザの発音に対応する外国語のスペルを表示することができる。   Further, in FIG. 2, the pronunciation confirmation mode processing means 34 of the processing means 30 includes the exemplary voice data of the English notation 112 stored in the exemplary voice data storage means 22 and the user stored in the user voice data storage means 24. If the user's pronunciation is the same or close to that of the model voice, for example, the correct answer "Ping Pong" is output as described above, and the user's pronunciation is inappropriate due to the comparison. If so, an incorrect answer “boo” may be output. In this case, the voice recognition means provided in the pronunciation confirmation mode processing means 34 can display the spelling of the foreign language corresponding to the recognized user's pronunciation.

次に,上記手段により実現される本実施形態の言語学習装置1の動作の一例について説明する。言語学習装置1により,図3に示すように,少なくとも暗記モードS1,確認モードS2,発音特訓モードS3,発音確認モードS4の4つの学習モードが作動され,例えば,図示しないメインメニューの画面から選択可能としている。   Next, an example of operation | movement of the language learning apparatus 1 of this embodiment implement | achieved by the said means is demonstrated. As shown in FIG. 3, the language learning device 1 activates at least four learning modes of a memorization mode S1, a confirmation mode S2, a pronunciation special training mode S3, and a pronunciation confirmation mode S4. It is possible.

図4は,暗記モードS1において表示される画像の一例を示す図である。図4に示す画像では,例文テキストETの日本語表記111,例文テキストETに対応したイラスト113が同時に表示されている(第1の画像101)。前記画像が一定時間表示されている間に日本語表記111の読み(発音)の模範音声が出力される。そして,図4の第1の画像101が一定時間表示された後,図5に示すように,例文テキストETの英語表記112及びイラスト113が表示(第2の画像102)されると共に,該英語表記112の読み(発音)の模範音声が出力される。そして,図5の第2の画像102が一定時間表示された後,図6に示すように,次に学習する例文テキストETの日本語表記111,該例文テキストETに対応したイラスト113が同時に表示され(第1の画像101),該画像101が一定時間表示されている間に日本語表記111の読み(発音)の模範音声が出力される。そして,図6の第1の画像101が一定時間表示された後,図7に示すように,例文テキストETの英語表記112及びイラスト113が表示(第2の画像102)されると共に,該英語表記112の読み(発音)の模範音声が出力される。   FIG. 4 is a diagram illustrating an example of an image displayed in the memorization mode S1. In the image shown in FIG. 4, a Japanese notation 111 of the example sentence text ET and an illustration 113 corresponding to the example sentence text ET are displayed simultaneously (first image 101). While the image is displayed for a certain period of time, a model voice of reading (pronunciation) in Japanese notation 111 is output. Then, after the first image 101 of FIG. 4 is displayed for a certain period of time, as shown in FIG. 5, an English notation 112 and an illustration 113 of the example sentence text ET are displayed (second image 102), and the English A model voice of reading (pronunciation) of the notation 112 is output. Then, after the second image 102 in FIG. 5 is displayed for a certain period of time, as shown in FIG. 6, the Japanese notation 111 of the example sentence text ET to be learned next and the illustration 113 corresponding to the example sentence text ET are simultaneously displayed. (First image 101), while the image 101 is displayed for a certain period of time, a model voice of reading (pronunciation) in Japanese notation 111 is output. Then, after the first image 101 of FIG. 6 is displayed for a certain period of time, as shown in FIG. 7, the English description 112 and the illustration 113 of the example sentence text ET are displayed (second image 102), and the English A model voice of reading (pronunciation) of the notation 112 is output.

なお,イラスト113は,図4のように漫画的に描かれたものに限定されず,例えば,映写したもの,さらにはアニメーション等の動画を使用しても良い。   Note that the illustration 113 is not limited to a cartoon-like illustration as shown in FIG. 4, and for example, a projected image or a moving image such as an animation may be used.

また,前記実施形態では,前記第1の画像101の表示及び自国語表記111の読みの模範音声データの出力,前記第2の画像102を表示及び前記外国語表記112の読みの模範音声データの出力の順に行われる例を説明したが,図示しない設定画面から,前記第1の画像101の表示及び自国語表記111の読みの模範音声データの出力と,前記第2の画像102を表示及び前記外国語表記112の読みの模範音声データの出力との順番を変更することができるものとしても良い。これにより,前記第2の画像102を表示及び前記外国語表記112の読みの模範音声データの出力,前記第1の画像101の表示及び自国語表記111の読みの模範音声データの出力の順に作動するように設定変更することができる。   In the embodiment, the display of the model voice data for the display of the first image 101 and the reading of the native language notation 111, the display of the model voice data for the display of the second image 102 and the reading of the foreign language notation 112. Although an example in which the output is performed has been described, from the setting screen (not shown), the display of the first image 101 and the output of the exemplary voice data of reading of the native language notation 111, the display of the second image 102, and the above-mentioned The order of the reading of the model voice data of the reading in the foreign language notation 112 may be changed. Thus, the display of the second image 102 and the output of the exemplary speech data for reading the foreign language notation 112, the display of the first image 101 and the output of the exemplary speech data for the reading of the native language notation 111 are performed in this order. You can change the settings.

本実施形態では,10個の例文テキストETのまとまりを1ステップとして,第1の画像101(日本語表記111)及び第2の画像102(英語表記112)を順次表示していくことを1周回とし,1周回表示すると終了する。   In the present embodiment, a group of ten example sentence texts ET is taken as one step, and the first image 101 (Japanese notation 111) and the second image 102 (English notation 112) are sequentially displayed one round. And end when one round is displayed.

例えば,図6の第1の画像101の上部中央に,「〈2/10〉」と表示されているように,今,何例文目か分かるように表示されている。また,本実施形態では,上述のように10個の例文テキストを1ステップとし,該ステップを複数設けることができる。なお,1周回分の例文テキストの数は,10個に限定されず,図示しない設定画面で自由に設定することができる。   For example, as shown in “<2/10>” in the upper center of the first image 101 in FIG. In the present embodiment, as described above, ten example sentence texts can be set as one step, and a plurality of the steps can be provided. Note that the number of example sentence text for one round is not limited to 10 and can be freely set on a setting screen (not shown).

なお,図示しない設定画面から模範音声の速度を変えることができる。但し,音声の速度を変えたとしても,各画像の表示時間は(画像の切り替え速度は)変わらず一定である。   The speed of the model voice can be changed from a setting screen (not shown). However, even if the audio speed is changed, the display time of each image (the image switching speed) remains constant.

上述した暗記モードS1を利用することで,ユーザは,視覚・音声を通じて外国語を効果的に記憶し学習することができる。   By using the memorization mode S1 described above, the user can effectively memorize and learn foreign languages through visual and audio.

次に,確認モードS2について説明する。
図8は,確認モードS2の作動により表示される前記確認用画像103の一例を示す。確認モードS2では,例えば,暗記モードS1で学習した例文テキストを記憶しているか否かを確認するためのものであり,図8に示すように,例文テキストETの日本語表記111を画面中央に表示し,その周りに,該例文テキストETの英語表記112と,該例文テキストET以外の9個の例文テキストET’・・・ET’の英語表記112’・・・112’とを含む合計10個の英語表記112,112’・・・112’が同時に表示される確認用画像103が表示され,ユーザは,表示された英語表記112,112’・・・112’を囲む枠内を選択することができ,そして,選択された1の英語表記が前記例文テキストETの英文(つまり,前記日本語表記111の訳文)に該当するか否かを判定し,結果をユーザに知らせることができる。本実施形態では音声で判定結果を知らせるものであり,例えば,正解音「ピンポーン」,不正解音「ブー」を出力させても良い。なお,これら信号音と共にあるいはこれに代えて,テキストあるいはイメージで判定結果を画面に表示するものとしても良い。そして,一定時間経過すると次の例文テキストETの確認用画像103に移行する。
Next, the confirmation mode S2 will be described.
FIG. 8 shows an example of the confirmation image 103 displayed by the operation of the confirmation mode S2. In the confirmation mode S2, for example, it is for confirming whether or not the example sentence text learned in the memorization mode S1 is stored. As shown in FIG. 8, the Japanese notation 111 of the example sentence text ET is displayed at the center of the screen. displayed, around the, the English notation 112 of該例statement text ET, the English notation 112 '1 ... 112' 9 of該例statement text nine sentences text ET other than ET '1 ... ET' 9 A confirmation image 103 on which a total of 10 English notations 112, 112 ′ 1 ... 112 ′ 9 are simultaneously displayed is displayed, and the user displays the displayed English notations 112, 112 ′ 1. 9 can be selected, and it is determined whether or not the selected one English notation corresponds to the English sentence of the example sentence text ET (that is, the translated sentence of the Japanese notation 111). To the user I can inform you. In the present embodiment, the determination result is notified by voice. For example, a correct answer “ping pong” and an incorrect answer “boo” may be output. In addition, it is good also as what displays a determination result on a screen with a text or an image with or instead of these signal sounds. Then, after a predetermined time has passed, the process proceeds to the confirmation image 103 of the next example sentence text ET.

本実施形態では,上述の学習モードで学習した10個の例文テキストについて一定時間経過する毎に次の確認用画像103を表示していくことができ,例えば,図8の画面左上に,「〈1/10〉」と表示されているように,今,何例文目か分かるように表示されている。   In the present embodiment, the next confirmation image 103 can be displayed every time a certain period of time has elapsed for the ten example sentence texts learned in the learning mode described above. For example, “< "1/10>" is displayed so that it can be understood how many example sentences now.

なお,上記暗記モードS1と上記確認モードS2を続けて作動するように設定しても良く,例えば,10個の例文テキストETについて暗記モードS1で学習し,暗記モードS1が終了した後,続けて確認モードS2が自動で作動し,暗記モードS1で学習した10個の例文テキストETについて確認モードS2で確認するものとしても良い。   The memorization mode S1 and the confirmation mode S2 may be set to operate continuously. For example, ten example sentence texts ET are learned in the memorization mode S1, and after the memorization mode S1 is finished, The confirmation mode S2 is automatically activated, and the ten example sentence texts ET learned in the memorization mode S1 may be confirmed in the confirmation mode S2.

ユーザは,上述の確認モードS2を利用することで,暗記モードS1で学習した英語テキストを記憶できているか確かめることが可能であると共に,あらためて記憶の定着を促すことができる。   The user can confirm whether or not the English text learned in the memorization mode S1 can be memorized by using the confirmation mode S2 described above, and can prompt the user to fix the memory again.

また,例えば,前記確認モード処理手段32が,正答率を計算しその計算結果を画面に表示する制御処理を備えることで,ゲーム感覚で学習できるため,飽きずに継続しやすい。   In addition, for example, the confirmation mode processing means 32 includes a control process for calculating a correct answer rate and displaying the calculation result on the screen, so that it can be learned like a game, so it is easy to continue without getting tired.

次に,発音特訓モードS3について説明する。
本実施形態の発音特訓モードS3の作動により表示される画像には,例えば,図9に示すように,学習する例文テキストET,例えば英語表記112,例文テキストETに対応するイラスト113,模範音声再生ボタン121,録音ボタン122,音声再生ボタン123,比較再生ボタン128及び,録音再生ボタン129が表示されている。
Next, the pronunciation special training mode S3 will be described.
For example, as shown in FIG. 9, the image displayed by the operation of the pronunciation special training mode S3 of the present embodiment includes an example sentence text ET to be learned, for example, English notation 112, an illustration 113 corresponding to the example sentence text ET, and model voice reproduction. A button 121, a recording button 122, an audio playback button 123, a comparative playback button 128, and a recording / playback button 129 are displayed.

模範音声再生ボタン121を選択すると,表示されている英語表記112の読み(発音)の模範音声が出力される。   When the model voice playback button 121 is selected, a model voice of reading (pronunciation) of the displayed English notation 112 is output.

録音ボタン122を選択すると,録音モードに切り換わり,ユーザがマイクロフォンに向かって発声すると,この音声データがユーザ音声データ記憶手段24に記憶される。   When the recording button 122 is selected, the mode is switched to the recording mode. When the user speaks into the microphone, the voice data is stored in the user voice data storage unit 24.

次に,前記音声再生ボタン123については,比較再生ボタン128を選択(タッチ)した後に音声再生ボタン123を選択すると,表示されている英語表記112の読み(発音)の模範音声が出力した後,前記ユーザ音声データ記憶手段24に録音されたユーザの音声を出力する。なお,出力される音声の順番は逆でも良い。   Next, with respect to the voice playback button 123, when the voice playback button 123 is selected after the comparison playback button 128 is selected (touched), the displayed voice of the English notation 112 (pronunciation) is output, The user's voice recorded in the user voice data storage means 24 is output. Note that the order of the output voices may be reversed.

また,録音再生ボタン129を選択した後,音声再生ボタン123を選択すると,前記ユーザ音声データ記憶手段24に録音されたユーザの音声のみを出力する。   When the audio playback button 123 is selected after selecting the recording / playback button 129, only the user's voice recorded in the user voice data storage means 24 is output.

本実施形態では,上述の学習モードで学習した10個の例文テキストについて順次表示していくことができ,例えば,図9の画面上部中央に,「〈1/10〉」と表示されているように,今,何例文目か分かるように表示されており,また,図9中の右矢印ボタン124を選択すると,次の例文テキストの画面に移行し,左矢印ボタン125を選択すると,一つ前の例文テキストに画面に戻る。   In this embodiment, ten example sentence texts learned in the above-described learning mode can be sequentially displayed. For example, “<1/10>” is displayed at the upper center of the screen in FIG. In FIG. 9, when the right arrow button 124 in FIG. 9 is selected, the screen moves to the next example sentence text screen, and when the left arrow button 125 is selected, one is displayed. Return to the previous example text screen.

上記発音特訓モードS3を利用することで,ユーザは自分の発音と模範音声とを客観的に聞き比べることができるので,発音の誤りを容易に認識でき,この誤りを是正することにより,早い上達が望まれるようになる。   By using the pronunciation special training mode S3, the user can objectively hear and compare his / her pronunciation and the model voice, so that he can easily recognize the mistake in pronunciation and correct it quickly. Is desired.

次に,本発明の第2実施形態について説明する。なお,説明の便宜上,実施形態1における説明と同じ機能を有する構成・手段については,同じ符号を付し,その詳細な説明を省略する。   Next, a second embodiment of the present invention will be described. For the sake of convenience of explanation, the same reference numerals are given to configurations / means having the same functions as those described in the first embodiment, and detailed description thereof is omitted.

第2実施形態は,暗記モード処理手段31における処理が実施形態1と異なる。
本実施形態の暗記モード処理手段31は,上述した第1実施形態の暗記モード処理手段が有する処理機能の他に,所定数の各例文テキストET毎に,前記第1の画像101の表示及び日本語表記111の読みの模範音声データの出力と,前記第2の画像102の表示及び英語表記112の読みの模範音声データの出力とを順次実行することを1周回として,複数回周回し,全画像は,常に一定時間表示され,周回毎に模範音声データの出力速度を可変とする制御処理を含む。
The second embodiment differs from the first embodiment in the processing in the memorization mode processing means 31.
The memorization mode processing means 31 of the present embodiment, in addition to the processing functions of the memorization mode processing means of the first embodiment described above, displays the first image 101 and the Japan for each predetermined number of example sentence texts ET. The output of the exemplary voice data of the reading of the word notation 111 and the display of the second image 102 and the output of the exemplary voice data of the reading of the English notation 112 are sequentially executed as a single turn, The image is always displayed for a fixed time, and includes a control process for changing the output speed of the model voice data for each lap.

第2実施形態の暗記モードS1の動作の例として,本実施形態では,10個の例文テキストについて,第1の画像101の表示及び日本語表記111の読みの模範音声の出力と第2の画像102の表示及び英語表記112の読みの模範音声の出力を順次実行していくことを1周回とし,3周回するものである。1周回目が終了すると2周回目が始まるが,2周回目では,各画像の表示時間は1周回目と同じ,つまり画像の切り替え速度は変わらないが,各例文テキストの日本語表記111及び英語表記112の読み(発音)の模範音声の速度が速くなる。本実施形態では,3周回目の各例文テキストの日本語表記111及び英語表記112の読み(発音)の模範音声の速度は,1周回目より早いが2周回目より遅く設定されている。ただし,ここでも,3周回目の各画像の表示時間は1周回目及び2周回目と表示時間が同一,つまり画面の切り替え速度は変わらない,つまり,全画像通じて,画像の表示時間は一定である。   As an example of the operation in the memorization mode S1 of the second embodiment, in the present embodiment, for ten example sentence texts, the display of the first image 101 and the output of the exemplary speech for reading the Japanese notation 111 and the second image The sequential execution of the display of the display 102 and the reading of the exemplary speech of the English notation 112 is one round and three rounds. At the end of the first round, the second round starts. At the second round, the display time of each image is the same as the first round, that is, the image switching speed does not change, but the Japanese text 111 and English of each example sentence text are not changed. The speed of the model voice of reading (pronunciation) of the notation 112 is increased. In the present embodiment, the speed of the model voice of reading (pronunciation) of Japanese notation 111 and English notation 112 of each example sentence text in the third round is set to be faster than the first round but slower than the second round. However, the display time of each image in the third round is the same as that in the first and second rounds, that is, the screen switching speed does not change, that is, the display time of the image is constant throughout all the images. It is.

なお,実施形態1の場合と同様に,図示しない設定画面から,前記第1の画像101の表示及び自国語表記111の読みの模範音声データの出力と,前記第2の画像102を表示及び前記外国語テキスト112の読みの模範音声データの出力との順番を変更することができるものとしても良い。   As in the case of the first embodiment, from the setting screen (not shown), the display of the first image 101 and the output of the exemplary voice data for reading the native language notation 111, the second image 102, and the display The order of the reading of the model voice data for reading the foreign language text 112 may be changed.

また,1周回分の例文テキストの数は,10個に限定されず,図示しない設定画面で自由に設定することができ,また各周の模範音声の速度についても自由に設定でき,例えば,6段階の音声速度を用意しておきその中から適宜選択して設定できるものとしても良い。   In addition, the number of example sentence text for one lap is not limited to ten, and can be freely set on a setting screen (not shown), and the speed of the model voice of each lap can be set freely. For example, 6 It is good also as what can prepare the audio | voice speed of a step and can select and set it suitably among them.

次に,本発明の第3実施形態について説明する。なお,説明の便宜上,実施形態1における説明と同じ機能を有する構成・手段については,同じ符号を付し,その詳細な説明を省略する。   Next, a third embodiment of the present invention will be described. For the sake of convenience of explanation, the same reference numerals are given to configurations / means having the same functions as those described in the first embodiment, and detailed description thereof is omitted.

本実施形態の暗記モード処理手段31は,第1実施形態の暗記モード処理手段が有する機能の他に,一の例文テキストETについて,前記第1の画像101の表示及び日本語表記111の読みの模範音声データの出力をし,前記第2の画面102の表示及び英語表記112の読みの模範音声データの出力をすることを1ターンとし,該1ターンの画像表示及び模範音声データ出力を複数回繰り返してから次の例文テキストの画像表示及び模範音声データ出力に移行し,全画面の表示時間は一定にしつつ,ターン毎に音声の出力速度を可変とする処理機能を有する。   The memorization mode processing means 31 of the present embodiment, in addition to the functions of the memorization mode processing means of the first embodiment, displays the first image 101 and reads the Japanese notation 111 for one example sentence text ET. The output of the model voice data, the output of the model voice data for the display of the second screen 102 and the reading of the English notation 112 is one turn, and the one-turn image display and the model voice data output are performed a plurality of times. After repeating, it shifts to image display of the next example sentence text and model voice data output, and has a processing function to change the voice output speed for each turn while keeping the full screen display time constant.

第3実施形態の暗記モードS1の動作の例として,1の例文テキストの,第1の画像(日本語表記)101の表示及び日本語表記の模範音声の出力をした後,第2の画像(英語表記)102の表示及び英語表記の模範音声の出力することを1ターンとし,該1ターンの画像表示及び音声出力を3回繰り返した後に次に学習する例文テキストETに移行することを,10の例文テキストET分だけ繰り返すものである。1の例文テキストETにおいて1ターン目が終了すると2ターン目が始まるが,2ターン目では,各画像の表示時間は1ターン目と同一,つまり画像の切り替え速度は変わらないが,日本語表記111及び英語表記112の読み(発音)の模範音声の速度が速くなる。本実施形態では,3ターン目の,日本語表記111及び英語表記112の読み(発音)の模範音声の速度は,1ターン目及び2ターン目より早く設定されている。ただし,3ターン目の各画像の表示時間は1ターン目及び2ターン目と表示時間が同一,つまり画像の切り替え速度は変わらない。つまり,全画像通じて,表示時間は一定である。   As an example of the operation in the memorization mode S1 of the third embodiment, after displaying the first image (Japanese notation) 101 of the example sentence text 1 and outputting the model voice in Japanese notation, the second image ( It is assumed that the display of 102 in English and the output of the model voice in English notation is one turn, and the image display and the voice output of the one turn are repeated three times, and then the sentence text ET to be learned next is transferred to 10 Is repeated for the example sentence text ET. In the example sentence text ET, when the first turn ends, the second turn begins. However, in the second turn, the display time of each image is the same as the first turn, that is, the image switching speed does not change, but the Japanese notation 111 And the speed of the model voice of reading (pronunciation) of the English notation 112 is increased. In the present embodiment, the speed of the model voice of reading (pronunciation) of the Japanese notation 111 and the English notation 112 in the third turn is set to be faster than the first turn and the second turn. However, the display time of each image of the third turn is the same as that of the first turn and the second turn, that is, the image switching speed does not change. That is, the display time is constant throughout all images.

なお,前記実施形態では,前記第1の画像101の表示及び自国語表記111の読みの模範音声データの出力,前記第2の画像102の表示及び前記外国語表記112の読みの模範音声データの出力の順に行われる作動例を説明したが,実施形態1の場合と同様に,図示しない設定画面から,前記第1の画像101の表示及び自国語表記111の読みの模範音声データの出力と,前記第2の画像102の表示及び前記外国語表記112の読みの模範音声データの出力との順番を変更することができるものとしても良い。これにより,前記第2の画像102の表示及び前記外国語テキスト112の読みの模範音声データの出力,前記第1の画像101の表示及び自国語表記111の読みの模範音声データの出力の順に作動されるものに設定変更することができる。   In the embodiment, the display of the model voice data for the display of the first image 101 and the reading of the native language notation 111, the display of the model voice data of the display of the second image 102 and the reading of the foreign language notation 112 are performed. Although an example of operation performed in the order of output has been described, as in the case of the first embodiment, from the setting screen (not shown), the output of the model voice data for displaying the first image 101 and reading the native language notation 111, The order of the display of the second image 102 and the output of the model voice data of the reading of the foreign language notation 112 may be changed. Accordingly, the display of the second image 102 and the output of the model voice data for reading the foreign language text 112, the display of the first image 101 and the output of the model voice data for reading the native language notation 111 are performed in this order. You can change the settings to what you want.

また,各ターンの模範音声の速度は,例えば,図示しない設定画面から適宜選択して自由に設定できるようにして良い。   Also, the speed of the model voice of each turn may be set freely by appropriately selecting from a setting screen (not shown), for example.

発音確認モードS4に関し,図2に示す処理手段30の発音確認モード処理手段34について,説明すると,前記各例文テキスト毎に,前記ユーザ音声データ記憶手段24に格納されたユーザ音声データと,前記例文テキストに対応する外国語表記112の読みの模範音声データを,それぞれ,前記模範音声データ記憶手段22とユーザ音声データ記憶手段24から読みだし,前記例文テキストETの外国語表記に該当する発音か否かを判断し,判定結果として,ユーザの発音が正しい,すなわち,模範音声データと同一又は近似するときは,前記例文テキストの外国語表記112をそのまま表示し,近似しないときは,近似しない発音に対応するスペルを表示すると共に,該当又は非該当の旨を画面上に表示する発音確認モードS4を作動する。   With respect to the pronunciation confirmation mode S4, the pronunciation confirmation mode processing means 34 of the processing means 30 shown in FIG. 2 will be described. The model voice data of the reading of the foreign language notation 112 corresponding to the text is read from the model voice data storage means 22 and the user voice data storage means 24, respectively, and whether or not the pronunciation corresponds to the foreign language notation of the example sentence text ET. If the user's pronunciation is correct, i.e., the same or approximate to the model voice data, the foreign language notation 112 of the example sentence text is displayed as it is, and if not approximated, the pronunciation is not approximated Activates the pronunciation confirmation mode S4, which displays the corresponding spelling and displays the corresponding or not applicable on the screen That.

図10〜図12に示す実施形態では,発音練習ボタン131をタッチし,表記枠110に例文テキストETである英語表記112「Cool!」が表示され,画面に従って,「Cool!」と発音する(図10〜図11)。ここでは,発音が正しければ,そのスペルである「Cool」が,イラスト枠109内に表記される(図11〜図12)。そして,判定結果として,「ピンポン」の音声と共に,「Good it」と表示される(図12)。発音が正しくないとき,たとえば,いわゆる和製英語風に「クール」と発音されると,ブザー音「Bee」となり,「Kuuru」と表示される。「Good it」とならないときは,発音練習ボタン131のタッチからやり直すことができる。   In the embodiment shown in FIGS. 10 to 12, the pronunciation practice button 131 is touched, and the English notation 112 “Cool!” As the example sentence text ET is displayed in the notation frame 110, and “Cool!” Is pronounced according to the screen ( 10 to 11). Here, if the pronunciation is correct, the spell “Cool” is displayed in the illustration frame 109 (FIGS. 11 to 12). Then, “Good it” is displayed as a determination result together with the sound of “ping-pong” (FIG. 12). When the pronunciation is not correct, for example, when “cool” is pronounced in the so-called Japanese-English style, the buzzer sound “Bee” is displayed and “Kuuru” is displayed. If “Good it” is not reached, the pronunciation practice button 131 can be redone.

すなわち,ユーザの発音が,「模範音声データと」比較しあっていれば,「ピンポン」とそのスペルを表示し,間違っていれば,「Bee」で,不正解の表示と共に間違った発音に対応する正解と異なるスペルの英文テキストを表示する。ユーザは自分の発音について模範音声との相違を簡単に確認することができるので,発音の誤りを容易に認識できる。   In other words, if the user's pronunciation is compared with "exemplary voice data", "Ping Pong" and its spelling are displayed, and if wrong, "Bee" is displayed with an incorrect answer and an incorrect pronunciation. English text with a spelling different from the correct answer is displayed. Since the user can easily confirm the difference between his / her pronunciation and the model voice, he / she can easily recognize the pronunciation error.

1 言語学習装置
10 端末装置
12 演算処理装置
13 メインメモリ
14 記憶装置
15 操作パネル
16 マイクロフォン
17 スピーカー
18 無線通信用インタフェース
19 バス
20 記憶手段,
21 画像データ記憶手段
22 模範音声データ記憶手段
23 確認用画像データ記憶手段
24 ユーザ音声データ記憶手段
30 処理手段
31 暗記モード処理手段
32 確認モード処理手段
33 発音特訓モード処理手段
34 発音確認モード処理手段
35 モード制御処理手段
40 操作入力手段
50 表示手段
60 音声入力手段
70 音声出力手段
101 第1の画像
102 第2の画像
103 確認用画像
109 イラスト枠
110 表記枠
111 自国語(日本語)表記(例文テキスト;ET)
112 外国語(英語)表記(例文テキスト;ET)
113 イラスト
121 模範音声再生ボタン
122 録音ボタン
123 音声再生ボタン
128 比較再生ボタン
129 録音再生ボタン
131 発音練習ボタン
S1 暗記モード
S2 確認モード
S3 発音特訓モード
S4 発音確認モード

1 Language Learning Device 10 Terminal Device 12 Arithmetic Processing Device 13 Main Memory 14 Storage Device 15 Operation Panel 16 Microphone 17 Speaker 18 Wireless Communication Interface 19 Bus 20 Storage Means,
21 image data storage means 22 model voice data storage means 23 confirmation image data storage means 24 user voice data storage means 30 processing means 31 memorization mode processing means 32 confirmation mode processing means 33 pronunciation special training mode processing means 34 pronunciation confirmation mode processing means 35 Mode control processing means 40 Operation input means 50 Display means 60 Audio input means 70 Audio output means 101 First image 102 Second image 103 Confirmation image 109 Illustration frame 110 Notation frame 111 Native language (Japanese) notation (example sentence text) ET)
112 Foreign language (English) notation (example sentence text; ET)
113 Illustration 121 Model voice playback button 122 Record button 123 Voice playback button 128 Comparison playback button 129 Record playback button 131 Pronunciation practice button S1 Memorization mode S2 Confirmation mode S3 Pronunciation special training mode S4 Pronunciation confirmation mode

Claims (5)

ユーザの操作入力を受けつける操作入力手段と,画像データを表示する表示手段と,ユーザが発音したユーザ音声データを取得する音声入力手段と,音声データを出力させる音声出力手段と,
各例文テキスト毎の,例文テキストの自国語表記と例文テキストに対応するイラストとを含む第1の画像の画像データと,例文テキストの外国語表記と前記イラストとを含む第2の画像の画像データを格納する画像データ記憶手段と,
前記自国語表記と前記外国語表記の読み(発音)の模範音声データを格納する模範音声データ記憶手段と,
各例文テキスト毎の,例文テキストの自国語表記及び外国語表記と,当該例文テキスト以外の所定数の例文テキストの外国語表記とを含む確認用画像の画像データを格納する確認用画像データ記憶手段と,
前記ユーザ音声データを格納するユーザ音声データ記憶手段と,
各例文テキスト毎に,前記第1の画像の画像データ及び前記自国語表記の読み(発音)の模範音声データと,前記第2の画像の画像データ及び前記外国語表記の読み(発音)の模範音声データを,それぞれ,前記画像データ記憶手段と前記模範音声データ記憶手段から読みだし,前記第1の画像表示する間前記自国語表記の読みの模範音声データの出力をし,一定時間前記第1の画像を表示した後前記第2の画像に切り替えて,該第2の画像表示する間前記外国語表記の読みの模範音声データの出力をし,前記第1の画像及び前記第2の画像の表示時間は一定にする制御処理を含む前記暗記モード処理手段と,
各例文テキスト毎に,前記確認用画像データ記憶手段から前記確認用画像の画像データを読み出し,前記確認用画像を表示し,画面上の複数の外国語表記から一の外国語表記の選択入力を受け付け,選択された外国語表記が前記例文テキストの外国語に該当するか否かを判断し,判定結果を音声による出力又は画面上に表示する制御処理を含む確認モード処理手段と,
前記模範音声データ記憶手段に記憶された外国語表記の読みの模範音声データと,前記ユーザ音声データ記憶手段に記憶されたユーザ音声データとを交互に出力する制御処理を含む発音特訓モード処理手段と,
前記各例文テキスト毎に,前記ユーザ音声データ記憶手段に格納されたユーザ音声データと,前記例文テキストに対応する外国語表記の読みの模範音声データを,それぞれ,前記模範音声データ記憶手段と前記ユーザ音声データ記憶手段から読みだし,前記例文テキストの外国語表記に同一又は近似するか否かを判断し,判定結果として,同一又は近似するときは,前記例文テキストの外国語表記を表示し,前記同一又は近似しないときは,当該発音に対応するスペルを表示する発音確認モードを作動する発音確認モード処理手段と,
を備えることを特徴とする言語学習装置。
Operation input means for receiving user operation input; display means for displaying image data; voice input means for acquiring user voice data pronounced by the user; voice output means for outputting voice data;
For each example sentence text, image data of the first image including the native language notation of the example sentence text and an illustration corresponding to the example sentence text, and image data of the second image including the foreign language notation of the example sentence text and the illustration. Image data storage means for storing
Model voice data storage means for storing model voice data of reading (pronunciation) of the native language notation and the foreign language notation;
Confirmation image data storage means for storing image data of a confirmation image including native language notation and foreign language notation of example sentence text and foreign language notation of a predetermined number of example sentence texts other than the example sentence text for each example sentence text When,
User voice data storage means for storing the user voice data;
For each example sentence text, the image data of the first image and the exemplary speech data for reading (pronunciation) in the native language notation, the image data of the second image and the example of reading (pronunciation) in the foreign language notation Audio data is read from the image data storage means and the exemplary audio data storage means, respectively, and the exemplary audio data of the native language notation is output while the first image is displayed . switch to the second image after displaying the first image, and the output of the model voice data reading between the foreign language notation for displaying the second image, the first image and the second The memorization mode processing means including a control process for making the display time of an image constant;
For each example sentence text, the image data of the confirmation image is read from the confirmation image data storage means, the confirmation image is displayed, and a selection of one foreign language expression is selected from a plurality of foreign language expressions on the screen. A confirmation mode processing means including a control process for receiving and determining whether the selected foreign language notation corresponds to the foreign language of the example sentence text and outputting the determination result by voice or displaying on the screen;
Pronunciation special training mode processing means including a control process for alternately outputting the reading model voice data of the foreign language notation stored in the model voice data storage means and the user voice data stored in the user voice data storage means; ,
For each example sentence text, the user voice data stored in the user voice data storage means and the model voice data of reading in a foreign language corresponding to the example sentence text, respectively, the model voice data storage means and the user Read from the speech data storage means, determine whether or not it is the same or approximate to the foreign language notation of the example sentence text, and if the determination result is the same or approximate, display the foreign language notation of the example sentence text, A pronunciation confirmation mode processing means for operating a pronunciation confirmation mode for displaying a spell corresponding to the pronunciation;
A language learning apparatus comprising:
前記暗記モード処理手段が,所定数の例文テキストについて,各例文テキスト毎に,前記第1の画像表示する間前記自国語表記の読みの模範音声データの出力と,一定時間前記第1の画像を表示した後前記第2の画像に切り替えて,前記第2の画像表示する間前記外国語表記の読みの模範音声データの出力とを順次行うことを1周回とし,複数回周回し,全画像の表示時間は一定にしつつ,周回毎に前記模範音声データの出力速度を可変とする制御処理を含むことを特徴とする請求項1記載の言語学習装置。 The memorization mode processing means outputs, for a given number of example sentence texts, output of example speech data of reading in the native language while displaying the first image for each example sentence text, and the first image for a certain period of time. The display is switched to the second image, and while the second image is displayed, the model voice data of the reading in the foreign language is sequentially output as one turn, and the turn is performed a plurality of times. The language learning apparatus according to claim 1, further comprising a control process of changing an output speed of the model voice data for each lap while making a display time of an image constant. 前記暗記モード処理手段が,各例文テキスト毎に,前記第1の画像表示する間前記自国語表記の読みの模範音声データの出力をし,一定時間前記第1の画像を表示した後前記第2の画像に切り替えて,前記第2の画像表示する間前記外国語表記の読みの模範音声データの出力をすることを1ターンとし,該1ターンの画像表示及び模範音声データの出力を複数回連続して繰り返すことを,所定数の例文テキストについて実行し,全画像の表示時間は一定にしつつ,ターン毎に模範音声データの出力速度を可変とする制御処理を含むことを特徴とする請求項1又は2記載の言語学習装置。 The rote mode processing means, for each example sentence text, said after the during displaying the first image the the output of the model voice data readings native language notation, displaying the predetermined time the first image first switch to second image, said that the output of the model voice data reading between the foreign language notation for displaying the second image as a one turn, a plurality of image display and output of the model voice data of the one-turn Including a control process of executing repetition for a predetermined number of example sentence texts, making the display speed of all images constant, and varying the output speed of model voice data for each turn. Item 3. The language learning device according to Item 1 or 2. 前記暗記モード処理手段が,各例文テキスト毎の,前記第1の画像の表示及び自国語表記の模範音声データの出力と,前記第2の画像の表示及び前記外国語表記の模範音声データの出力との実行順序を可変とする制御処理を含むことを特徴とする請求項1〜3いずれか1項記載の言語学習装置。   The memorization mode processing means outputs, for each example sentence text, display of the first image and exemplary speech data in native language notation, display of the second image and output of exemplary speech data in the foreign language notation. 4. The language learning apparatus according to claim 1, further comprising: a control process for changing the execution order. 前記暗記モード処理手段を実行して暗記モードを作動させ,続けて,前記確認モード処理手段を実行して確認モードを作動させるモード制御処理手段を備えることを特徴とする請求項1〜4いずれか1項記載の言語学習装置。   5. The apparatus according to claim 1, further comprising a mode control processing unit that executes the memorization mode processing unit to activate the memorization mode, and subsequently executes the confirmation mode processing unit to activate the confirmation mode. The language learning device according to claim 1.
JP2016243265A 2016-12-15 2016-12-15 Language learning device Active JP6466391B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016243265A JP6466391B2 (en) 2016-12-15 2016-12-15 Language learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016243265A JP6466391B2 (en) 2016-12-15 2016-12-15 Language learning device

Publications (2)

Publication Number Publication Date
JP2018097250A JP2018097250A (en) 2018-06-21
JP6466391B2 true JP6466391B2 (en) 2019-02-06

Family

ID=62633521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016243265A Active JP6466391B2 (en) 2016-12-15 2016-12-15 Language learning device

Country Status (1)

Country Link
JP (1) JP6466391B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102395702B1 (en) * 2019-08-20 2022-06-13 정연서 Method for providing english education service using step-by-step expanding sentence structure unit
CN110459201B (en) * 2019-08-22 2022-01-07 云知声智能科技股份有限公司 Speech synthesis method for generating new tone
CN111613244A (en) * 2020-05-20 2020-09-01 北京搜狗科技发展有限公司 Scanning and reading-following processing method and related device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250402A (en) * 1999-03-01 2000-09-14 Kono Biru Kk Device for learning pronunciation of foreign language and recording medium where data for learning foreign language pronunciation are recorded
JP2003241644A (en) * 2002-02-15 2003-08-29 Teiichi Kasahara Foreign language conversation learning method and foreign language conversation learning apparatus
JP4035644B2 (en) * 2003-04-03 2008-01-23 晴行 天野 Learning support device
JP4779365B2 (en) * 2005-01-12 2011-09-28 ヤマハ株式会社 Pronunciation correction support device
JP3126691U (en) * 2005-10-26 2006-11-09 康隆 入野 Parallel translation simultaneous display cartoon
JP2009048150A (en) * 2007-08-17 2009-03-05 Atoz Co Ltd English conversation teaching tool using super quick method
JP6231510B2 (en) * 2015-02-16 2017-11-15 株式会社東京Sim外語研究所 Foreign language learning system

Also Published As

Publication number Publication date
JP2018097250A (en) 2018-06-21

Similar Documents

Publication Publication Date Title
Rogerson-Revell Computer-assisted pronunciation training (CAPT): Current issues and future directions
US8656283B2 (en) Interactive storybook system and method
CN109817244B (en) Spoken language evaluation method, device, equipment and storage medium
WO2014160316A2 (en) Device, method, and graphical user interface for a group reading environment
WO2014151884A2 (en) Device, method, and graphical user interface for a group reading environment
JP6466391B2 (en) Language learning device
CN112509609B (en) Audio processing method and device, electronic equipment and storage medium
CN109389873B (en) Computer system and computer-implemented training system
JP2004021102A (en) Conversation practice system and its method
KR20150126176A (en) A word study system using infinity mnemotechniques and method of the same
KR100888267B1 (en) Language traing method and apparatus by matching pronunciation and a character
JP6166831B1 (en) Word learning support device, word learning support program, and word learning support method
KR20140004541A (en) Method for providing foreign language phonics training service based on feedback for each phoneme using speech recognition engine
US10825357B2 (en) Systems and methods for variably paced real time translation between the written and spoken forms of a word
JP2020038371A (en) Computer program, pronunciation learning support method and pronunciation learning support device
KR20030079497A (en) service method of language study
JP6656529B2 (en) Foreign language conversation training system
CN108986784B (en) Voice output control device and voice output control method
JP7118389B2 (en) Language learning device, language learning method, and language learning program
JP6155102B2 (en) Learning support device
JP7013702B2 (en) Learning support device, learning support method, and program
US20160307453A1 (en) System and method for auditory capacity development for language processing
KR20160121217A (en) Language learning system using an image-based pop-up image
JP2001337594A (en) Method for allowing learner to learn language, language learning system and recording medium
US11581006B2 (en) Systems and methods for variably paced real-time translation between the written and spoken forms of a word

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190109

R150 Certificate of patent or registration of utility model

Ref document number: 6466391

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250