JP2019174525A - Learning support device, learning support method, and program - Google Patents

Learning support device, learning support method, and program Download PDF

Info

Publication number
JP2019174525A
JP2019174525A JP2018059698A JP2018059698A JP2019174525A JP 2019174525 A JP2019174525 A JP 2019174525A JP 2018059698 A JP2018059698 A JP 2018059698A JP 2018059698 A JP2018059698 A JP 2018059698A JP 2019174525 A JP2019174525 A JP 2019174525A
Authority
JP
Japan
Prior art keywords
determination
pronunciation
english
learning support
specific state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018059698A
Other languages
Japanese (ja)
Other versions
JP7135372B2 (en
Inventor
知哉 梶川
Tomoya Kajikawa
知哉 梶川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018059698A priority Critical patent/JP7135372B2/en
Publication of JP2019174525A publication Critical patent/JP2019174525A/en
Application granted granted Critical
Publication of JP7135372B2 publication Critical patent/JP7135372B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a learning support device capable of presenting appropriate next learning contents on the basis of a determination of a user's pronunciation.SOLUTION: A CPU causes a display unit 17 to display text data of a determination object (question) English example is1 as a question screen G3 on the basis of learning content data ((A) pronunciation determination app: English example) 12b1, and to reproduce voice data of model pronunciation corresponding to the English example is1. The CPU records and analyzes voice data pronounced by the user, and causes the display unit 17 to display a determination result screen G6 of a determination result determined by marking a plurality of determination items (speech reading time/getting out level from Katakana English/consonant strength/sharpness/smoothness). On the determination result screen 6, for example, if the user touches a determination item with low score, the CPU executes a training process of learning contents suitable for improving the user's pronunciation of the touched determination item.SELECTED DRAWING: Figure 4

Description

本発明は、学習支援装置、学習支援方法およびプログラムに関する。   The present invention relates to a learning support device, a learning support method, and a program.

英語等の語学を学習するための様々な学習装置が実用されている。   Various learning devices for learning languages such as English have been put into practical use.

一般に、従来の学習支援装置では、ユーザが例えば会話を学習するのに、相手と自分との会話の例文を表示させたり、音声として出力させたりする。ユーザは、その例文の表示を見たり(ボキャブラリ)、音声を聞いたり(リスニング)、実際に発音したり(スピーキング)を反復しながら学習する。   In general, in a conventional learning support apparatus, for example, when a user learns a conversation, an example sentence of a conversation between the user and himself / herself is displayed or output as a voice. The user learns by repeating the display of the example sentence (vocabulary), listening to the voice (listening), and actually pronounced (speaking).

また、従来の学習支援装置では、例文の表示に応じてユーザが実際に発音した音声を録音し、録音したユーザの発音と、その例文に対応するネイティブの発音との比較処理を行なうことにより、ユーザの発音を判定し点数等の表示により判定結果を出力するものがある。   Further, in the conventional learning support device, by recording the voice actually pronounced by the user in accordance with the display of the example sentence, by comparing the recorded user's pronunciation with the native pronunciation corresponding to the example sentence, Some of them determine the user's pronunciation and output the determination result by displaying a score or the like.

特開平11−327419号公報Japanese Patent Laid-Open No. 11-327419

従来の学習支援装置では、ユーザの発音を判定して点数等により判定結果を出力できる。しかしながら、ユーザの発音の判定結果を受けて、次にどのような内容で学習すればよいのか、ユーザ自身が判断して次の学習内容を選んでいる。   A conventional learning support apparatus can determine a user's pronunciation and output a determination result based on a score or the like. However, in response to the determination result of the user's pronunciation, the user himself / herself determines the content to be learned next and selects the next learning content.

本発明は、このような課題に鑑みなされたもので、ユーザの発音の判定結果に基づいて、適切な次の学習内容を提示することが可能になる学習支援装置、学習支援方法およびプログラムを提供することを目的とする。   The present invention has been made in view of such a problem, and provides a learning support device, a learning support method, and a program that can present appropriate next learning content based on a determination result of a user's pronunciation. The purpose is to do.

本発明に係る学習支援装置は、第1の判定対象に対応した発音の音声データを入力し当該発音を複数種類の判定項目毎に判定し、前記複数種類の判定項目毎の第1の判定結果の何れかが特定の状態となった場合、当該第1の判定結果において特定の状態となった判定項目について前記発音を向上させるための処理を実行する、制御部を備えている。   The learning support apparatus according to the present invention inputs sound data of pronunciation corresponding to the first determination target, determines the pronunciation for each of a plurality of types of determination items, and the first determination result for each of the plurality of types of determination items. When any of the above is in a specific state, a control unit is provided that executes a process for improving the pronunciation of the determination item that is in the specific state in the first determination result.

本発明の実施形態に係る学習支援装置10の電子回路の構成を示すブロック図。The block diagram which shows the structure of the electronic circuit of the learning assistance apparatus 10 which concerns on embodiment of this invention. 前記学習支援装置10の学習支援処理プログラム12aに従った学習支援処理を示すフローチャート。The flowchart which shows the learning assistance process according to the learning assistance process program 12a of the said learning assistance apparatus 10. FIG. 前記学習支援装置10の学習支援処理における判定結果表示処理を示すフローチャート。The flowchart which shows the determination result display process in the learning assistance process of the said learning assistance apparatus. 前記学習支援装置10の学習支援処理に従ったユーザ操作に対応する表示動作および音声入出力動作(その1)を示す図。The figure which shows the display operation | movement corresponding to user operation according to the learning assistance process of the said learning assistance apparatus 10, and audio | voice input / output operation (the 1). 前記学習支援装置10の学習支援処理に従ったユーザ操作に対応する表示動作および音声入出力動作(その2)を示す図。The figure which shows the display operation | movement corresponding to user operation according to the learning assistance process of the said learning assistance apparatus 10, and audio | voice input / output operation (the 2). 前記学習支援装置10の学習支援処理に従ったユーザ操作に対応する表示動作および音声入出力動作(その3)を示す図。The figure which shows the display operation | movement corresponding to user operation according to the learning assistance process of the said learning assistance apparatus 10, and audio | voice input / output operation (the 3). 前記学習支援装置10の学習支援処理に従ったユーザ操作に対応する表示動作および音声入出力動作(その4)を示す図。The figure which shows the display operation | movement corresponding to user operation according to the learning assistance process of the said learning assistance apparatus 10, and audio | voice input / output operation (the 4). 前記学習支援装置10の学習支援処理に従ったユーザ操作に対応する表示動作および音声入出力動作(その5)を示す図。The figure which shows the display operation | movement corresponding to user operation according to the learning assistance process of the said learning assistance apparatus 10, and audio | voice input / output operation (the 5). 前記学習支援装置10の学習支援処理に従ったユーザ操作に対応する表示動作および音声入出力動作(その6)を示す図。The figure which shows the display operation | movement corresponding to user operation according to the learning assistance process of the said learning assistance apparatus 10, and audio | voice input / output operation (the 6).

以下図面により本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施形態に係る学習支援装置10の電子回路の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an electronic circuit of a learning support apparatus 10 according to an embodiment of the present invention.

学習支援装置10の電子回路は、コンピュータであるCPU11を備える。前記CPU11は、フラッシュROMなどの記憶部12に予め記憶された学習支援処理プログラム12a、あるいはメモリカードなどの外部記録媒体13から記録媒体読取部14により読み取られて前記記憶部12に記憶された学習支援処理プログラム12a、あるいは通信ネットワークN上のWebサーバ(ここではプログラムサーバ)20から通信部15を介してダウンロードされ前記記憶部12に記憶された学習支援処理プログラム12a、に従って回路各部の動作を制御する。   The electronic circuit of the learning support apparatus 10 includes a CPU 11 that is a computer. The CPU 11 reads the learning support processing program 12a stored in the storage unit 12 such as a flash ROM in advance or the recording medium reading unit 14 from the external recording medium 13 such as a memory card and stores the learning in the storage unit 12. The operation of each part of the circuit is controlled according to the support processing program 12a or the learning support processing program 12a downloaded from the Web server (here, the program server) 20 on the communication network N via the communication unit 15 and stored in the storage unit 12. To do.

前記CPU11には、データ及び制御バスを介して、前記記憶部12、記録媒体読取部14、通信部15を接続するほか、キー入力部16、タッチパネル付き表示部17、音声入力部18、音声出力部19、を接続する。   The CPU 11 is connected to the storage unit 12, the recording medium reading unit 14, and the communication unit 15 through a data and control bus, as well as a key input unit 16, a display unit 17 with a touch panel, an audio input unit 18, and an audio output. Unit 19 is connected.

前記音声入力部18は、ユーザ等の音声を入力するマイクを備える。   The voice input unit 18 includes a microphone for inputting voice of a user or the like.

前記音声出力部19は、記憶部12に記憶されているかあるいは録音された音声データに基づく音声を出力するスピーカを備える。   The audio output unit 19 includes a speaker that outputs audio based on audio data stored in the storage unit 12 or recorded.

前記記憶部12は、前記学習支援処理プログラム12a、複数の学習コンテンツデータ((A)発音判定アプリケーションプログラム:英語例文)12b1,((B)発音判定アプリケーションプログラム:英単語)12b2,((C)英会話アプリケーションプログラム:会話例文)12b3,(D)12b4,…、発音判定結果データ12c、および表示データ12dなどを記憶する。なお、これ以降「アプリケーションプログラム」を「アプリ」と称呼する。   The storage unit 12 includes the learning support processing program 12a, a plurality of learning content data ((A) pronunciation determination application program: English example sentence) 12b1, ((B) pronunciation determination application program: English word) 12b2, ((C) English conversation application program: conversation example sentence) 12b3, (D) 12b4, ..., pronunciation determination result data 12c, display data 12d, and the like are stored. Hereinafter, “application program” is referred to as “application”.

前記学習支援処理プログラム12aは、本学習支援装置10の全体の動作を司るシステムプログラム、前記通信部15を介して外部の電子機器と通信接続するためのプログラム、前記記憶部12に記憶されている各学習コンテンツデータ(A)12b1,(B)12b2,(C)12b3,(D)12b4,…、発音判定結果データ12c、表示データ12dを含む種々のデータを使って、各学習コンテンツに個々に対応する学習機能を実行するためのプログラム、および、学習コンテンツデータ((A)発音判定アプリ:英語例文)12b1に従ったユーザの発音の判定結果に基づき、各学習コンテンツを選択的に利用して適切な次の学習内容を提示する学習機能を実行するためのプログラム、などを含む。   The learning support processing program 12 a is stored in the storage unit 12, a system program that controls the overall operation of the learning support device 10, a program for communication connection with an external electronic device via the communication unit 15, and the like. Each of the learning contents data (A) 12 b 1, (B) 12 b 2, (C) 12 b 3, (D) 12 b 4,... A program for executing the corresponding learning function and the learning content data ((A) pronunciation determination app: English example sentence) 12b1 are used to selectively use each learning content based on the determination result of the user's pronunciation. A program for executing a learning function for presenting appropriate next learning content is included.

前記各学習コンテンツデータ(A)12b1,(B)12b2,(C)12b3,(D)12b4,…は、音声データのように聴覚により認識可能に出力されるデータと、テキストデータや画像データのように視覚により認識可能に出力されるデータとを含む。   The learning content data (A) 12b1, (B) 12b2, (C) 12b3, (D) 12b4,... Are data such as voice data that can be recognized by hearing, text data, and image data. Data that can be recognized visually.

前記学習コンテンツデータ((A)発音判定アプリ:英語例文)12b1は、複数の英語例文の中から選択された1つの英語例文のテキストデータを表示させると共に、当該選択された英語例文に対応する模範の発音の音声データを出力する。そして、ユーザが発音した音声データを録音し、当該録音した音声データ(ユーザの発音)を対象に、複数種類の判定項目(音読時間/脱カタカナ英語度/子音の強さ/メリハリ/なめらかさ)とその総合評価について点数で判定し、判定結果を表示させる機能を有する。英語例文を見ながら聴いて反芻する練習は、例えば、音読時間(音読の速さの適切さ)の練習に適する。   The learning content data ((A) pronunciation determination application: English example sentence) 12b1 displays text data of one English example sentence selected from a plurality of English example sentences, and an example corresponding to the selected English example sentence. Outputs the sound data of the pronunciation. Then, the voice data sounded by the user is recorded, and a plurality of types of judgment items (reading time / deciphering English level / consonant strength / sharpness / smoothness) are targeted for the recorded voice data (user's pronunciation). It has a function to determine the overall evaluation and the score and display the determination result. The practice of listening and listening while looking at English example sentences is suitable for practice of reading aloud (appropriate speed of reading), for example.

前記学習コンテンツデータ((B)発音判定アプリ:英単語)12b2は、母音を含む複数の英単語又は子音を含む複数の英単語のテキストデータを一覧表示させ、一覧表示された複数の英単語の中からユーザ操作に応じて選択された1つの英単語のテキストデータを表示させると共に、当該選択された英単語に対応する模範の発音の音声データを出力する。そして、ユーザが発音した音声データを録音し、当該録音した音声データ(ユーザの発音)を点数で判定し、判定結果を表示させる機能を有する。母音を含む英単語の発音の練習は、例えば、カタカナ英語を脱却する練習に適し、子音を含む英単語の発音の練習は、例えば、子音の強さ(発音の明瞭さ)の練習に適する。   The learning content data ((B) pronunciation determination application: English word) 12b2 displays a list of text data of a plurality of English words including vowels or a plurality of English words including consonants, and the plurality of English words displayed as a list are displayed. The text data of one English word selected according to the user operation from among them is displayed, and the voice data of the model pronunciation corresponding to the selected English word is output. And it has the function which records the audio | voice data sounded by the user, determines the recorded audio | voice data (user's pronunciation) by a score, and displays the determination result. Practice of pronunciation of English words including vowels is suitable, for example, for practicing to escape from Katakana English, and practice of pronunciation of English words including consonants is, for example, suitable for practice of consonant strength (pronunciation of pronunciation).

前記学習コンテンツデータ((C)英会話アプリ:会話例文)12b3は、複数組みの会話例文の中からユーザ操作に応じて選択された1組の会話例文のテキストデータを順次表示させると共に、当該表示された会話例文に対応する模範の発音の音声データとその日本語訳の音声データとを順次出力する。会話例文を見ながら聴き込む反復練習は、例えば、会話のメリハリ(音の強弱・高低差)やなめらかさ(単語間の発音の適切さ)の練習に適する。   The learning content data ((C) English conversation app: conversation example sentence) 12b3 sequentially displays text data of a set of conversation example sentences selected in response to a user operation from a plurality of sets of conversation example sentences. The voice data of the model pronunciation corresponding to the conversation example sentence and the voice data of the Japanese translation are sequentially output. Repetitive practice of listening while looking at conversation example sentences is suitable for practicing, for example, the sharpness of the conversation (sound strength / difference in pitch) and smoothness (appropriate pronunciation of words).

前記発音判定結果データ12cは、前記学習コンテンツデータ((A)発音判定アプリ:英語例文)12b1に基づき得られたユーザの発音に対する判定結果のデータであり、複数の判定項目(音読時間/脱カタカナ英語度/子音の強さ/メリハリ/なめらかさ)に対応する点数データと、総合評価の点数データと、前記複数の判定項目の点数データに対応するバランスチャートのデータとを、少なくとも前回と今回の2回分の判定結果データとして含む。   The pronunciation determination result data 12c is determination result data for the user's pronunciation obtained based on the learning content data ((A) pronunciation determination application: English example sentence) 12b1, and includes a plurality of determination items (speech reading time / deciphering katakana). English score / consonant strength / sharpness / smoothness), comprehensive evaluation score data, and balance chart data corresponding to the plurality of judgment item score data, at least the previous and current It is included as judgment result data for two times.

前記表示データ12dは、本学習支援装置10の動作に応じて前記CPU11が表示部17に表示させる、例えばビットマップ形式の画像データである。   The display data 12d is image data in, for example, bitmap format that is displayed on the display unit 17 by the CPU 11 in accordance with the operation of the learning support apparatus 10.

このように構成された学習支援装置10は、前記CPU11が、前記学習支援処理プログラム12aに記述された命令に従い回路各部の動作を制御し、ソフトウエアとハードウエアとが協働して動作することにより、以下の動作説明で述べるような、各学習コンテンツデータ(A)12b1,(B)12b2,(C)12b3,(D)12b4,…や発音判定結果データ12cに応じた学習支援機能を実現する。   In the learning support device 10 configured as described above, the CPU 11 controls the operation of each part of the circuit in accordance with the instructions described in the learning support processing program 12a, and the software and hardware operate in cooperation. Thus, a learning support function corresponding to each learning content data (A) 12b1, (B) 12b2, (C) 12b3, (D) 12b4,. To do.

次に、前記構成の学習支援装置10の動作について説明する。   Next, the operation of the learning support apparatus 10 having the above configuration will be described.

図2は、前記学習支援装置10の学習支援処理プログラム12aに従った学習支援処理を示すフローチャートである。   FIG. 2 is a flowchart showing a learning support process according to the learning support processing program 12a of the learning support apparatus 10.

図3は、前記学習支援装置10の学習支援処理における判定結果表示処理を示すフローチャートである。   FIG. 3 is a flowchart showing a determination result display process in the learning support process of the learning support apparatus 10.

図4〜図9は、前記学習支援装置10の学習支援処理に従ったユーザ操作に対応する表示動作および音声入出力動作(その1〜その6)を示す図である。   4 to 9 are diagrams showing a display operation and a voice input / output operation (No. 1 to No. 6) corresponding to a user operation in accordance with the learning support process of the learning support apparatus 10.

前記学習支援装置10の電源が投入されると、CPU11は、各学習コンテンツデータ(A)12b1,(B)12b2,(C)12b3,(D)12b4,…に対応するアイコンを一覧にしたコンテンツ一覧画面(図示せず)を表示部17に表示させる。   When the learning support apparatus 10 is turned on, the CPU 11 lists contents corresponding to the respective learning content data (A) 12b1, (B) 12b2, (C) 12b3, (D) 12b4,. A list screen (not shown) is displayed on the display unit 17.

前記表示部17に表示されたコンテンツ一覧画面において、学習コンテンツデータ((A)発音判定アプリ:英語例文)12b1に対応するアイコンがタッチ操作されると、CPU11は、当該学習コンテンツデータ((A)発音判定アプリ:英語例文)12b1を起動させ、当該発音判定アプリ(英語例文)によって、図4(A)に示すように、判定項目[単語で判定]B11と[文章で判定]B12を表記した発音判定初期画面G1を表示部17に表示させる(ステップS1)。   When the icon corresponding to the learning content data ((A) pronunciation determination app: English example sentence) 12b1 is touched on the content list screen displayed on the display unit 17, the CPU 11 causes the learning content data ((A)) to be touched. Pronunciation determination application: English example sentence) 12b1 is activated, and the pronunciation determination application (English example sentence) indicates determination items [determine by word] B11 and [determination by sentence] B12 as shown in FIG. The pronunciation determination initial screen G1 is displayed on the display unit 17 (step S1).

前記発音判定初期画面G1において、判定項目[文章で判定]B12がタッチ操作Pされると、CPU11は、図4(B)に示すように、判定対象(出題)の英語例文を、ランダムに指定するモード、単語数別に指定するモード、母音から指定するモード、子音から指定するモードのうち、何れかのモードに選択するための[ランダム]アイコンB21、[単語数別]アイコンB22、[母音]アイコンB23、[子音]アイコンB24を配列した英語例文モード選択画面G2を表示部17に表示させる(ステップS1)。   When the determination item [determined by text] B12 is touched on the pronunciation determination initial screen G1, the CPU 11 randomly designates an English example sentence to be determined (question) as shown in FIG. 4B. [Random] icon B21, [By word count] icon B22, [Vowel] for selecting one of a mode to specify, a mode to specify by the number of words, a mode to specify from vowels, and a mode to specify from consonants An English example sentence mode selection screen G2 in which icons B23 and [consonant] icons B24 are arranged is displayed on the display unit 17 (step S1).

前記英語例文モード選択画面G2において、例えば、[ランダム]アイコンB21がタッチ操作Pされると、CPU11は、図4(C)に示すように、学習コンテンツデータ((A)発音判定アプリ:英語例文)12b1に含まれる複数の英語例文の中から判定対象(出題)の英語例文をランダムに選択し、選択した英語例文「It has been so hot recently!」is1に発音要求メッセージ「お手本に続いて発音してください」M31および録音開始メッセージ「録音画面に切り替わってから発声してください。」M32を付加した出題画面G3を表示部17に表示させる。また、CPU11は、前記出題画面G3の表示と共に、表示中の英語例文「It has been so hot recently!」is1に対応する模範の発音の音声データを音声出力部19から再生させる(ステップS1)。   In the English example sentence mode selection screen G2, for example, when the [random] icon B21 is touch-operated P, the CPU 11 performs learning content data ((A) pronunciation determination application: English example sentence as shown in FIG. 4C). ) Randomly select an English example sentence to be judged (question) from a plurality of English example sentences included in 12b1, and the pronunciation request message “pronounced after example” is sent to the selected English example sentence “It has been so hot recently!” M31 and recording start message “Please speak after switching to the recording screen.” The question screen G3 with M32 added is displayed on the display unit 17. In addition to the display of the question screen G3, the CPU 11 reproduces, from the voice output unit 19, model voice data corresponding to the displayed English example sentence “It has been so hot recently!” Is1 (step S1).

この後、前記模範の発音の音声データの再生が終わると、CPU11は、図4(D)に示すように、録音中メッセージ「録音しています」M41および終了操作メッセージ「発音が終了したら決定キーを押して下さい」M42を表記した録音中画面G4を表示部17に表示させ、音声入力部18から入力されるユーザの発音の音声データを録音する(ステップS1)。   Thereafter, when the reproduction of the voice data of the above-mentioned exemplary pronunciation is finished, as shown in FIG. 4D, the CPU 11 records the message “Recording” M41 and the end operation message “Done key when the sound is finished”, as shown in FIG. "Please press the button" The recording screen G4 with M42 displayed is displayed on the display unit 17, and the voice data of the user's pronunciation input from the voice input unit 18 is recorded (step S1).

この後、ユーザによりキー入力部16の[決定]キーが操作されるか、または録音開始から所定の時間(例えば15秒)が経過すると、CPU11は、図4(E)に示すように、解析中メッセージ「解析中…」M5を表記した解析中画面G5を表示部17に表示させ、録音されたユーザの発音の音声データを音声認識して解析し、5種類の判定項目(音読時間/脱カタカナ英語度/子音の強さ/メリハリ/なめらかさ)とその総合評価について点数で判定する。そして、判定した各点数データを発音判定結果データ12cとして記憶部12に記憶させる(ステップS1)。   Thereafter, when the user operates the [Enter] key of the key input unit 16 or when a predetermined time (for example, 15 seconds) elapses from the start of recording, the CPU 11 analyzes as shown in FIG. A mid-analysis screen G5, in which the middle message “analyzing ...” M5 is displayed, is displayed on the display unit 17, and the voice data of the recorded user's pronunciation is recognized and analyzed. Katakana English level / consonant strength / sharpness / smoothness) and their overall evaluation are determined by scores. Then, the determined score data is stored in the storage unit 12 as the pronunciation determination result data 12c (step S1).

すると、CPU11は、図4(F)に示すように、前記英語例文「It has been so hot recently!」is1に対応するユーザの発音の音声データを解析して判定した、5種類の判定項目(音読時間/脱カタカナ英語度/子音の強さ/メリハリ/なめらかさ)それぞれの各点数データとその総合評価の点数データとを表記した判定結果画面G6を表示部17に表示させる(ステップS2(S21))。   Then, as shown in FIG. 4 (F), the CPU 11 analyzes the user's pronunciation voice data corresponding to the English example sentence “It has been so hot recently!” A judgment result screen G6 in which each score data and score data of its comprehensive evaluation is displayed on the display unit 17 (step S2 (S21)) )).

前記判定結果画面G6には、前記5種類の判定項目の各点数データに対応するバランスチャートBCのデータも表記され、当該バランスチャートBCは、同じ英語例文isnを対象とする今回の判定結果が赤線RのバランスチャートBCrで表示され、前回の判定結果が青線BのバランスチャートBCb(図5(E)参照)で表示される。そして、前記判定結果画面G6では、点数の低い、例えば80点未満の判定項目(図4(F)参照)、および前回の判定結果より点数の上がった判定項目(図5(E)参照)が、赤枠で囲われて識別表示HRされる(ステップS21)。   The determination result screen G6 also displays balance chart BC data corresponding to the score data of the five types of determination items. The balance chart BC indicates that the current determination result for the same English example sentence isn is red. The balance chart BCr on the line R is displayed, and the previous determination result is displayed on the balance chart BCb on the blue line B (see FIG. 5E). In the determination result screen G6, there are determination items with a low score, for example, less than 80 points (see FIG. 4 (F)), and determination items with a score higher than the previous determination result (see FIG. 5 (E)). The identification display HR is enclosed by a red frame (step S21).

従って、ユーザは、前記判定結果画面G6のバランスチャートBCrにより、今回の発音判定による各判定項目間での発音のバランスを一目で確認できるだけでなく、赤枠の識別表示HRにより、発音が良くなかった判定項目や前回の発音判定よりも発音が良くなった判定項目についても容易に知ることができる。   Therefore, the user can not only confirm at a glance the balance of pronunciation among the respective judgment items according to the current pronunciation judgment by the balance chart BCr on the judgment result screen G6, but also the pronunciation is not good by the identification display HR of the red frame. It is also possible to easily know the judgment items that have been pronounced and the judgment items whose pronunciation is better than the previous pronunciation judgment.

また、前回の発音判定のバランスチャートBCbと今回の発音判定のバランスチャートBCrとの比較により、前回と今回の各判定項目間での発音のバランスの変化も一目で確認できる。   Further, by comparing the balance chart BCb of the previous pronunciation determination with the balance chart BCr of the current pronunciation determination, it is possible to confirm at a glance the change in the balance of pronunciation between the previous and current determination items.

図4(F)では、前回の判定結果が無く、判定項目「音読時間」の点数が低かった場合を示し、図5(E)では、判定項目「音読時間」の点数が前回の判定結果より上がった場合を示している。   FIG. 4F shows a case where there is no previous determination result and the score of the determination item “speech reading time” is low. In FIG. 5E, the score of the determination item “speech reading time” is lower than the previous determination result. The case where it goes up is shown.

また、前回の判定結果より点数の下がった判定項目(図5(F)(G)参照)があった場合、前記判定結果画面G6では、その判定項目が青色の点線の枠で囲われて識別表示HBされ、警告メッセージ「前回より得点の下がった項目があります。注意しながらもう一度練習しましょう!」M6が表示される(ステップS22(Yes)→S23)。   If there is a determination item (see FIGS. 5F and 5G) whose score is lower than the previous determination result, the determination item is identified by being surrounded by a blue dotted frame on the determination result screen G6. The display HB is displayed and a warning message “There are items whose scores have been lowered from the previous time. Let's practice again with caution!” M6 is displayed (step S22 (Yes) → S23).

これによりユーザは、今回の発音判定において前回の発音判定よりも発音が悪くなった判定項目がある場合には、青枠の識別表示HBと警告メッセージM6により、当該悪くなった判定項目も容易に知ることができる。   Accordingly, when there is a determination item whose pronunciation is worse than the previous pronunciation determination in the current pronunciation determination, the user can easily determine the deteriorated determination item by using the blue frame identification display HB and the warning message M6. I can know.

前記判定結果画面G6に表記された[再チャレンジ]アイコンB61がタッチ操作された場合は、今回と同じ英語例文isnでの発音判定処理が再実行され、また、[次の文章]アイコンB62がタッチ操作された場合は、前記英語例文モード選択画面G2に従い選択したモードに応じた次の英語例文isnが指定され、当該次の英語例文isnを対象とする発音判定処理が実行される。また、[終了]アイコンB63がタッチ操作された場合は、前記一連の発音判定処理が終了される。   When the [re-challenge] icon B61 displayed on the determination result screen G6 is touched, the pronunciation determination process with the same English example sentence isn is performed again, and the [next sentence] icon B62 is touched. When operated, the next English example sentence isn corresponding to the mode selected according to the English example sentence mode selection screen G2 is designated, and the pronunciation determination process for the next English example sentence isn is executed. When the [END] icon B63 is touched, the series of sound generation determination processes is ended.

以下、本実施形態の学習支援装置10の動作説明は、前記学習コンテンツデータ((A)発音判定アプリ:英語例文)12b1に従った発音判定の結果に基づいて、ユーザに対し適切な学習内容で、音読時間の練習をさせる場合(図5参照)と、脱カタカナ英語度の練習をさせる場合(図6参照)と、子音の強さの練習をさせる場合(図7参照)と、会話のメリハリ/なめらかさの練習をさせる場合(図9参照)と、に分けて説明する。   Hereinafter, the description of the operation of the learning support device 10 according to the present embodiment is based on the learning content appropriate for the user based on the result of pronunciation determination according to the learning content data ((A) pronunciation determination app: English example sentence) 12b1. When you practice reading aloud (see FIG. 5), practice katakana English level (see FIG. 6), practice consonant strength (see FIG. 7), and sharpen the conversation / In the case of practicing smoothness (see FIG. 9), the explanation will be divided.

(発音判定後のスキル向上のための練習(1):「音読時間」)
前記図4(A)〜(F)で示したように、今回の判定対象(出題)の英語例文「It has been so hot recently!」is1に対応するユーザの発音の判定結果画面G6において、点数の低い判定項目[音読時間]が識別表示HRされている状態で(ステップS1,S2(S21))、ユーザが、例えば、当該点数の低い音読時間(音読の速さの適切さ)の練習をするため、前記識別表示HRされている判定項目[音読時間]をタッチ操作する(ステップS3[音読時間])。前記判定結果画面G6の[終了]アイコンB63がタッチ操作されると、CPU11は、前記一連の学習支援処理を終了させる。また、前記判定結果画面G6で上記以外の操作を行うと、CPU11は、その他の処理を実行する。
(Practice for skill improvement after pronunciation determination (1): “Reading time”)
As shown in FIGS. 4A to 4F, in the determination result screen G6 of the user's pronunciation corresponding to the English example sentence “It has been so hot recently!” In a state where the determination item [speech reading time] with a low is displayed and identified HR (steps S1, S2 (S21)), the user practices, for example, a reading time with a low score (appropriate speed of reading). In order to do this, the determination item [speech reading time] on the identification display HR is touch-operated (step S3 [speech reading time]). When the [END] icon B63 on the determination result screen G6 is touched, the CPU 11 ends the series of learning support processes. In addition, when an operation other than the above is performed on the determination result screen G6, the CPU 11 executes other processing.

ユーザが、前記識別表示HRされている判定項目[音読時間]をタッチ操作すると、CPU11は、記憶部12に記憶されている各学習コンテンツデータ(A)12b1,(B)12b2,…の中から、今回の判定対象(出題)の英語例文is1と語彙数が同じ他の英語例文(ここでは「It can’t rain all the time.」)is2を抽出し、記憶部12に記憶されているそのテキストデータと模範の発音の音声データを読み込む(ステップS4)。   When the user touches the determination item [speech reading time] displayed on the identification display HR, the CPU 11 selects the learning content data (A) 12b1, (B) 12b2,. Then, another English example sentence (here, “It can't rain all the time.”) Is2 having the same vocabulary number as the English example sentence is1 to be judged (question) is extracted and stored in the storage unit 12 Text data and voice data of an exemplary pronunciation are read (step S4).

そして、図5(A)に示すように、抽出した英語例文のテキストデータ「It can’t rain all the time.」is2を、音読時間練習画面G7として表示部17に表示させると共に、当該英語例文is2に対応する模範の発音の音声データを音声出力部19から出力させ、ユーザに対し、前記英語例文is2の模範の発音を聴き反芻して発音する反復練習を促す(ステップS5)。   Then, as shown in FIG. 5A, the text data “It can't rain all the time.” Is2 of the extracted English example sentence is displayed on the display unit 17 as a reading time practice screen G7, and the English example sentence is displayed. The voice data of the model pronunciation corresponding to is2 is output from the voice output unit 19, and the user is encouraged to practice repeatedly listening to the model pronunciation of the English example sentence is2 and uttering it (step S5).

ここで、前記音読時間練習画面G7に表記された[もう一度聞く]アイコンB71がユーザによりタッチ操作されると(ステップS6「もう一度」)、CPU11は、前記音読時間練習画面G7に基づく英語例文is2の表示と模範の発音の出力とを繰り返し実行し、ユーザに対し英語例文is2の音読時間(音読の速さの適切さ)を反復練習させる(ステップS5)。   Here, when the “play again” icon B71 written on the reading aloud time practice screen G7 is touch-operated by the user (step S6 “again”), the CPU 11 reads the English example sentence is2 based on the reading aloud time practice screen G7. The display and the output of the model pronunciation are repeatedly executed, and the user is made to repeatedly practice the reading time of the English example sentence is2 (appropriate speed of reading) (step S5).

この後、前記音読時間練習画面G7に表記された[判定]アイコンB72がユーザによりタッチ操作Pされると(ステップS6「判定」)、CPU11は、前記抽出した英語例文is2を判定対象の英文として指定し(ステップT1)、当該英文を判定対象とする発音判定処理を再度実行する(ステップS7)。   Thereafter, when the [determination] icon B72 written on the reading aloud time practice screen G7 is touched by the user (step S6 “determination”), the CPU 11 sets the extracted English example sentence is2 as an English sentence to be determined. Designation is performed (step T1), and the pronunciation determination process with the English sentence as a determination target is executed again (step S7).

すなわち、CPU11は、前記図4(C)〜(F)で示した英語例文「It has been so hot recently!」is1での発音判定処理と同様に、図5(B)〜(E)に示すように、英語例文「It can’t rain all the time.」is2に対応する出題画面G3の表示と模範の発音の音声の出力、録音中画面G4の表示とユーザの発音の音声の録音、解析中画面G5の表示と録音したユーザの発音の判定、を順番に実行する(ステップS7)。そして、ユーザの発音を解析して判定した、判定結果画面G6を表示部17に表示させる(ステップS8)。   That is, the CPU 11 is shown in FIGS. 5B to 5E similarly to the pronunciation determination process in the English example sentence “It has been so hot recently!” Is1 shown in FIGS. Thus, the display of the question screen G3 corresponding to the English example sentence “It can't rain all the time.” Is2 and the output of the voice of the model pronunciation, the display of the recording screen G4 and the recording and analysis of the voice of the user's pronunciation The display of the middle screen G5 and the determination of the pronunciation of the recorded user are executed in order (step S7). Then, a determination result screen G6 determined by analyzing the user's pronunciation is displayed on the display unit 17 (step S8).

図5(E)に示す判定結果画面G6では、前回の判定結果が青線BのバランスチャートBCbで表示され、今回の判定結果が赤線RのバランスチャートBCrで表示され、前回の判定結果より点数の上がった判定項目[音読時間]が赤枠で識別表示HRされている(ステップS21)。   In the determination result screen G6 shown in FIG. 5E, the previous determination result is displayed as a balance chart BCb of a blue line B, and the current determination result is displayed as a balance chart BCr of a red line R. The determination item [speech reading time] with an increased score is identified and displayed HR with a red frame (step S21).

ここで、図5(F)(G)に示すように、前回の判定結果より点数の下がった判定項目がある場合には(ステップS22(Yes))、該当する判定項目[メリハリ]が青枠で囲われて識別表示HBされ、警告メッセージ「前回より得点の下がった項目があります。注意しながらもう一度練習しましょう!」M6が表示される(ステップS23)。   Here, as shown in FIGS. 5F and 5G, when there is a determination item whose score is lower than the previous determination result (step S22 (Yes)), the corresponding determination item [sharp] is displayed in a blue frame. The identification message HB is enclosed, and a warning message “Some items have been scored lower than the previous time. Let's practice again carefully!” M6 is displayed (step S23).

この場合、ユーザは、前回の発音判定より今回の発音判定の方が、発音の[音読時間]について良くなったものの、[メリハリ]については逆に悪くなってしまったことを容易に知ることができる。   In this case, the user can easily know that the pronunciation determination of the current time is better for the pronunciation [speech reading time] than the previous pronunciation determination, but the sharpness is worse for the [sounding]. it can.

その後、CPU11は、再度、ステップS3の処理を実行する。つまり、図5(E)、(F)で示したように、今回の判定対象(出題)の英語例文「It can’t rain all the time.」is2に対応するユーザの発音の判定結果画面G6において、点数の低い判定項目[メリハリ]が識別表示HRされている状態で、ユーザが、例えば、当該点数の低いメリハリ(音の強弱・高低差)の練習をするため、前記識別表示HBされている判定項目[メリハリ]をタッチ操作できる(ステップS3[メリハリ])。   Thereafter, the CPU 11 executes the process of step S3 again. That is, as shown in FIGS. 5E and 5F, the user's pronunciation determination result screen G6 corresponding to the English example sentence “It can't rain all the time.” Is2 of the determination target (question) this time. In the state where the determination item [smooth] with a low score is identified and displayed HR, for example, in order to practice the sharpness (sound intensity / height difference) of the score, the user is presented with the identification display HB. Can be touch-operated (Step S3 [Sharpness]).

つまり、英語例文「It can’t rain all the time.」is2を対象とした発音判定処理の結果、図5(E)、(F)で示したように、前回のステップS3に対応する判定結果画面G6でタッチ操作した項目[音読時間]について発音スキルが向上したものの、それとは異なる判定項目[メリハリ]について発音スキルが低下したことも、確認できる。そこで、CPU11によって2回目以降に実行されるステップS3において、ユーザは、判定項目[メリハリ]をタッチ操作すれば、引き続き、[メリハリ]の発音スキルの向上のための練習を続けることができる。   That is, as a result of the pronunciation determination process for the English example sentence “It can't rain all the time.” Is2, as shown in FIGS. 5E and 5F, the determination result corresponding to the previous step S3. It can also be confirmed that although the pronunciation skill is improved for the item [speech reading time] touch-operated on the screen G6, the pronunciation skill is reduced for a different judgment item [brightness]. Therefore, in step S3 executed by the CPU 11 for the second time and thereafter, the user can continue the practice for improving the pronunciation skill of the “smoothness” by touching the determination item “smoothness”.

(発音判定後のスキル向上のための練習(2):「脱カタカナ英語度」)
前記図4(A)〜(E)で示したように、今回の判定対象(出題)の英語例文「It has been so hot recently!」is1に対応するユーザの発音判定を行った際に、例えば、図6(A)に示すように、表示部17に表示された判定結果画面G6において、点数の低い判定項目[脱カタカナ英語度]が識別表示HRされた場合に(ステップS1,S2(S21))、ユーザが、例えば、当該点数の低い脱カタカナ英語度(母音を含む英単語の発音)の練習をするため、前記識別表示HRされている判定項目[脱カタカナ英語度]をタッチ操作する(ステップS3[脱カタカナ英語度])。
(Practice for skill improvement after pronunciation determination (2): “De Katakana English Level”)
As shown in FIGS. 4A to 4E, when the user's pronunciation determination corresponding to the English example sentence “It has been so hot recently!” As shown in FIG. 6 (A), when a determination item [Deciphered Katakana English] with a low score is identified and displayed HR on the determination result screen G6 displayed on the display unit 17 (steps S1, S2 (S21)) )), For example, the user performs a touch operation on the determination item [deleted katakana English level] displayed on the identification display HR in order to practice the lower katakana English level (pronunciation of English words including vowels). (Step S3 [De Katakana English Level]).

すると、CPU11は、記憶部12に記憶されている学習コンテンツデータ((B)発音判定アプリ:英単語)12b2を起動させ、当該発音判定アプリ(英単語)によって、図6(B)に示すように、今回の判定対象(出題)の英語例文のうち、アクセントを付けて発音すべき英単語に含まれる母音を含む別の英単語を、反復練習対象の英単語として、母音または子音を問わずランダムに指定するモード、母音から指定するモード、子音から指定するモードのうち、何れかのモードに選択するための[ランダム]アイコンB81、[母音]アイコンB82、[子音]アイコンB83を配列した英単語モード選択画面G8を表示部17に表示させる(ステップS10)。   Then, the CPU 11 activates the learning content data ((B) pronunciation determination application: English words) 12b2 stored in the storage unit 12, and the pronunciation determination application (English words) causes the learning content data (b) to be as shown in FIG. In addition, among the English example sentences of the judgment subject (question) this time, another English word including the vowel contained in the English word that should be accented is used as the English word to be repeated, regardless of vowel or consonant. An English array in which a [random] icon B81, a [vowel] icon B82, and a [consonant] icon B83 for selecting one of a mode designated at random, a mode designated from a vowel, and a mode designated from a consonant are arranged. The word mode selection screen G8 is displayed on the display unit 17 (step S10).

この場合、図示を省略するが、CPU11は、[ランダム]アイコンB81、[母音]アイコンB82、[子音]アイコンB83のうちの[ランダム]アイコンB81、[子音]アイコンB83はグレイアウト表示させて、タッチ操作を無効とし、[母音]アイコンB82へのタッチ操作のみを有効にする。これにより、判定項目[脱カタカナ英語度]についてのスキル向上のための練習に、特化させることができる。   In this case, although not shown in the figure, the CPU 11 displays the [random] icon B81 and the [consonant] icon B83 out of the [random] icon B81, the [vowel] icon B82, and the [consonant] icon B83. The touch operation is disabled, and only the touch operation on the [vowel] icon B82 is enabled. Thereby, it can be specialized in the practice for skill improvement about the judgment item [dekatakana English level].

前記英単語モード選択画面G8おいて、脱カタカナ英語度の練習、つまり、母音を含む英単語の発音の練習をするために、[母音]アイコンB82がタッチ操作され、母音一覧Lvの中の何れかの母音が指定されると、CPU11は、図6(C)に示すように、ユーザによって指定された母音(ここでは「a」)の発音の口形をイラスト付きメッセージM9で説明する口形レッスン画面G9を表示部17に表示させる(ステップS10)。   In the English word mode selection screen G8, the [vowel] icon B82 is touch-operated in order to practice the removal of katakana English, that is, the pronunciation of English words including vowels. When such a vowel is designated, the CPU 11, as shown in FIG. 6C, displays a mouth lesson screen for explaining the mouth shape of the pronunciation of the vowel designated by the user (here “a”) with the illustrated message M 9. G9 is displayed on the display unit 17 (step S10).

前記口形レッスン画面G9に表記された[発音チェックに進む]アイコンB9がユーザによりタッチ操作Pされると、CPU11は、図6(D)に示すように、脱カタカナ英語の練習対象となる母音を含む複数の英単語を一覧にした英単語一覧画面(母音)G10を表示部17に表示させる(ステップS10)。   When the [Proceed to pronunciation check] icon B9 displayed on the mouth lesson screen G9 is touched by the user P, the CPU 11 displays the vowels to be practiced in katakana English as shown in FIG. 6 (D). An English word list screen (vowel) G10 that lists a plurality of English words is displayed on the display unit 17 (step S10).

前記英単語一覧画面(母音)G10において、母音を含むユーザ任意の英単語(ここでは「opposite」)がタッチ操作Pされて指定されると、CPU11は、当該指定された英単語「opposite」w1を抽出し、そのテキストデータと模範の発音の音声データを読み込む(ステップS10)。   In the English word list screen (vowel) G10, when an arbitrary English word (in this case, “opposite”) including a vowel is designated by a touch operation P, the CPU 11 designates the designated English word “opposite” w1. And the text data and the voice data of the model pronunciation are read (step S10).

そして、図6(E)(F)に示すように、抽出した英単語のテキストデータ「opposite」w1に対応する出題画面G3の表示と模範の発音の音声の再生、録音中画面G4の表示とユーザの発音の音声の録音、録音したユーザの発音の判定、を順番に実行する(ステップS11)。そして、図6(G)に示すように、前記英単語一覧画面(母音)G10を再表示させ、今回練習対象とした英単語「opposite」w1に対応付けて、ユーザの発音を判定した点数(ここでは、満点「100点」)を表示させる(ステップS11)。   Then, as shown in FIGS. 6E and 6F, the display of the question screen G3 corresponding to the extracted English word text data “opposite” w1, the reproduction of the sound of the exemplary pronunciation, the display of the recording screen G4, Recording of the pronunciation of the user's pronunciation and determination of the pronunciation of the recorded user are executed in order (step S11). Then, as shown in FIG. 6 (G), the English word list screen (vowel) G10 is displayed again, and the score of the user's pronunciation determined in association with the English word “opposite” w1 to be practiced this time ( Here, the full score “100 points”) is displayed (step S11).

この後、前記英単語一覧画面(母音)G10に表示された母音を含む全ての英単語について、図6(D)〜(G)で示した場合と同様に、ユーザの発音の練習と判定を反復して行なうことができる(ステップS11)。   Thereafter, for all English words including the vowels displayed on the English word list screen (vowel) G10, the user's pronunciation practice and determination are performed in the same manner as shown in FIGS. This can be repeated (step S11).

そして、前記英単語一覧画面(母音)G10に表示された母音を含む全ての英単語について、ユーザの発音を判定した点数「100点」となったかどうかを判定する(ステップT2)。全ての英単語について、図6(H)に示すように、ユーザの発音を判定した点数「100点」となると、CPU11は、当該英単語一覧画面(母音)G10内に[再チャレンジ]アイコンB61を表示させる(ステップT2:Yes→T3)。   Then, for all English words including the vowels displayed on the English word list screen (vowel) G10, it is determined whether or not the score determined by the user's pronunciation is “100 points” (step T2). As shown in FIG. 6 (H), for all English words, when the score of the user's pronunciation is determined to be “100”, the CPU 11 displays a [re-challenge] icon B61 in the English word list screen (vowel) G10. Is displayed (step T2: Yes → T3).

この後、英単語一覧画面(母音)G10に表記された[再チャレンジ]アイコンB61がユーザによりタッチ操作Pされると(ステップT4:Yes)、CPU11は、前回判定した英語例文「It has been so hot recently!」is1を判定対象の英文として指定し(ステップT5)、当該英文を判定対象とする発音判定処理を再度実行する(ステップS7)。以降の処理は、前述と同じであるので、説明を省略する。   After this, when the [re-challenge] icon B61 displayed on the English word list screen (vowel) G10 is touch-operated by the user (step T4: Yes), the CPU 11 determines the previously determined English example sentence “It has been so "hot recently!" is1 is designated as a determination target English sentence (step T5), and the pronunciation determination process for the English sentence as a determination target is executed again (step S7). Since the subsequent processing is the same as described above, description thereof is omitted.

再実行された発音判定処理での判定結果画面G6により、ユーザは、前記脱カタカナ英語度の練習の成果を確認できる。つまり、図8(D)で示す判定結果画面G6では、識別表示HRおよび前回と今回のバランスチャートBCb,BCrにより、ユーザは、判定項目[脱カタカナ英語度]の点数が上がっていることを確認できる。   From the determination result screen G6 in the re-executed pronunciation determination process, the user can confirm the result of the practice of the katakana English level. In other words, in the determination result screen G6 shown in FIG. 8D, the user confirms that the score of the determination item [Deciphered Katakana English] is increased by the identification display HR and the previous and current balance charts BCb and BCr. it can.

発音判定処理を再度実行した結果、例えば、前回のステップS3に対応する判定結果画面G6でタッチ操作した項目[脱カタカナ英語度]について発音スキルが向上したものの、それとは異なる判定項目([音読時間][メリハリ][子音の強さ][なめらかさ]のいずれか)について発音スキルが低下した場合には、それについても確認できる。そこで、CPU11によって2回目以降に実行されるステップS3において、ユーザは、発音スキルが低下したいずれかの判定項目をタッチ操作すれば、引き続き、当該判定項目についての発音スキルの向上のための練習を続けることができる。   As a result of executing the pronunciation determination process again, for example, although the pronunciation skill has improved for the item [deleted katakana English degree] touch-operated on the determination result screen G6 corresponding to the previous step S3, a different determination item ([speech reading time] ]] [Smoothness] [Consonant strength] [Smoothness]) If the pronunciation skill decreases, this can also be confirmed. Therefore, in step S3 executed by the CPU 11 for the second and subsequent times, if the user touches any determination item whose pronunciation skill has decreased, the user continues to practice for improving the pronunciation skill for the determination item. You can continue.

なお、ステップT5において、CPU11は、ステップS4と同様に、記憶部12に記憶されている各学習コンテンツデータ(A)12b1,(B)12b2,…の中から、今回の判定対象(出題)の英語例文is1と語彙数が同じ他の英語例文(ここでは「It can’t rain all the time.」)is2を抽出し、判定対象の英文として指定してもよい。   In step T5, as in step S4, the CPU 11 selects the current determination target (question) from the learning content data (A) 12b1, (B) 12b2,. Another English example sentence (here “It can't rain all the time.”) Is2 may be extracted and specified as an English sentence to be determined.

(発音判定後のスキル向上のための練習(3):「子音の強さ」)
前記図4(A)〜(E)で示したように、今回の判定対象(出題)の英語例文「It has been so hot recently!」is1に対応するユーザの発音判定を行った際に、表示部17に表示された判定結果画面G6において、例えば、点数の低い判定項目[子音の強さ]が識別表示HRされた状態で(ステップS1,S2(S21))、ユーザが、当該点数の低い子音の強さ(発音の明瞭さ)の練習をするため、前記識別表示HRされている判定項目[子音の強さ]をタッチ操作する(ステップS3[子音の強さ])。
(Practice for skill improvement after pronunciation determination (3): “Consonant strength”)
As shown in FIGS. 4A to 4E, when the user's pronunciation determination corresponding to the English example sentence “It has been so hot recently!” In the determination result screen G6 displayed on the unit 17, for example, in a state where the determination item [consonant intensity] having a low score is identified and displayed HR (steps S1, S2 (S21)), the user has a low score. In order to practice the strength of consonants (pronunciation of pronunciation), the determination item [consonant strength] on the identification display HR is touch-operated (step S3 [consonant strength]).

すると、CPU11は、前記脱カタカナ英語度の練習の場合と同様に、記憶部12に記憶されている学習コンテンツデータ((B)発音判定アプリ:英単語)12b2を起動させ、当該発音判定アプリ(英単語)によって、図7(A)に示すように、英単語モード選択画面G8を表示部17に表示させる(ステップS10)。   Then, the CPU 11 activates the learning content data ((B) pronunciation determination application: English words) 12b2 stored in the storage unit 12 in the same manner as in the case of the practice of the katakana English level, and the pronunciation determination application ( As shown in FIG. 7A, the English word mode selection screen G8 is displayed on the display unit 17 (English word) (step S10).

この場合、図示を省略するが、CPU11は、[ランダム]アイコンB81、[母音]アイコンB82、[子音]アイコンB83のうちの[ランダム]アイコンB81、[母音]アイコンB82はグレイアウト表示させて、タッチ操作を無効とし、[子音]アイコンB83へのタッチ操作のみを有効にする。これにより、判定項目[子音の強さ]についてのスキル向上のための練習に、特化させることができる。   In this case, although not shown, the CPU 11 displays the [random] icon B81 and the [vowel] icon B82 out of the [random] icon B81, the [vowel] icon B82, and the [consonant] icon B83. The touch operation is disabled and only the touch operation on the [consonant] icon B83 is enabled. Thereby, it can be made to specialize in practice for skill improvement about judgment item [consonant strength].

前記英単語モード選択画面G8おいて、子音の強さ(発音の明瞭さ)の練習をするために、[子音]アイコンB83がタッチ操作され、子音一覧Lcの中の何れかの子音が指定されると、CPU11は、図7(B)に示すように、ユーザによって指定された子音(ここでは「h」)の発音の口形をイラスト付きメッセージM9で説明する口形レッスン画面G9を表示部17に表示させる(ステップS10)。   In the English word mode selection screen G8, in order to practice the strength of consonants (pronunciation of pronunciation), a [consonant] icon B83 is touch-operated to designate any consonant in the consonant list Lc. Then, as shown in FIG. 7B, the CPU 11 displays a mouth shape lesson screen G9 that explains the mouth shape of the pronunciation of the consonant (here, “h”) designated by the user with a message M9 with an illustration. (Step S10).

前記口形レッスン画面G9に表記された[発音チェックに進む]アイコンB9がユーザによりタッチ操作Pされると、CPU11は、図7(C)に示すように、子音の強さの練習対象となる子音を含む複数の英単語を一覧にした英単語一覧画面(子音)G10を表示部17に表示させる(ステップS10)。   When the user performs a touch operation P on the “Proceed with pronunciation check” icon B9 displayed on the mouth lesson screen G9, the CPU 11 performs a consonant to be subjected to consonant intensity practice as shown in FIG. An English word list screen (consonant) G10 that lists a plurality of English words including, is displayed on the display unit 17 (step S10).

前記英単語一覧画面(子音)G10において、子音を含むユーザ任意の英単語(ここでは「hard」)がタッチ操作Pされて指定されると、CPU11は、当該指定された英単語「hard」w2を抽出し、そのテキストデータと模範の発音の音声データを読み込む(ステップS10)。   In the English word list screen (consonant) G10, when an arbitrary English word ("hard" in this case) including a consonant is designated by a touch operation P, the CPU 11 designates the designated English word "hard" w2. And the text data and the voice data of the model pronunciation are read (step S10).

そして、前記図6(E)(F)で示した母音を含む英単語「opposite」w1の場合と同様に、図7(D)(E)に示すように、抽出した英単語のテキストデータ「hard」w2に対応する出題画面G3の表示と模範の発音の音声の再生、録音中画面G4の表示とユーザの発音の音声の録音、録音したユーザの発音の判定、を順番に実行する(ステップS11)。そして、図7(F)に示すように、前記英単語一覧画面(子音)G10を再表示させ、今回練習対象とした英単語「hard」w2に対応付けて、ユーザの発音を判定した点数(ここでは、満点「100点」)を表示させる(ステップS11)。   Then, as in the case of the English word “opposite” w1 containing vowels shown in FIGS. 6E and 6F, as shown in FIGS. 7D and 7E, the text data “ The display of the question screen G3 corresponding to “hard” w2 and the reproduction of the voice of the exemplary pronunciation, the display of the recording screen G4 and the recording of the voice of the user's pronunciation, and the determination of the recorded user's pronunciation are executed in order (step). S11). Then, as shown in FIG. 7F, the English word list screen (consonant) G10 is displayed again, and the score (in which the user's pronunciation is determined in association with the English word “hard” w2 to be practiced this time) Here, the full score “100 points”) is displayed (step S11).

この後、前記英単語一覧画面(子音)G10に表示された子音を含む全ての英単語について、図7(C)〜(F)で示した場合と同様に、ユーザの発音の練習と判定を反復して行なうことができる(ステップS11)。   Thereafter, for all English words including consonants displayed on the English word list screen (consonant) G10, the user's pronunciation practice and determination are performed in the same manner as shown in FIGS. This can be repeated (step S11).

そして、前記英単語一覧画面(母音)G10に表示された子音を含む全ての英単語について、ユーザの発音を判定した点数「100点」となったかどうかを判定する(ステップT2)。全ての英単語について、図7(G)に示すように、ユーザの発音を判定した点数「100点」となると、CPU11は、当該英単語一覧画面(子音)G10内に[再チャレンジ]アイコンB61を表示させる(ステップT2:Yes)。以降の処理は、前述と同じであるので、説明を省略する。   Then, for all English words including consonants displayed on the English word list screen (vowel) G10, it is determined whether or not the score determined by the user's pronunciation is “100 points” (step T2). For all English words, as shown in FIG. 7G, when the score for determining the user's pronunciation reaches “100”, the CPU 11 displays a “re-challenge” icon B61 in the English word list screen (consonant) G10. Is displayed (step T2: Yes). Since the subsequent processing is the same as described above, description thereof is omitted.

発音判定処理を再度実行した結果、例えば、前回のステップS3に対応する判定結果画面G6でタッチ操作した項目[子音の強さ]について発音スキルが向上したものの、それとは異なる判定項目([音読時間][メリハリ][脱カタカナ英語度][なめらかさ]のいずれか)について発音スキルが低下した場合には、それについても確認できる。そこで、CPU11によって2回目以降に実行されるステップS3において、ユーザは、発音スキルが低下したいずれかの判定項目をタッチ操作すれば、引き続き、当該判定項目についての発音スキルの向上のための練習を続けることができる。   As a result of executing the pronunciation determination process again, for example, although the pronunciation skill has improved for the item [consonant strength] touched on the determination result screen G6 corresponding to the previous step S3, ]] [Smoothness] [De-Katakana English Level] [Smoothness]) If the pronunciation skills decline, this can also be confirmed. Therefore, in step S3 executed by the CPU 11 for the second and subsequent times, if the user touches any determination item whose pronunciation skill has decreased, the user continues to practice for improving the pronunciation skill for the determination item. You can continue.

(発音判定後のスキル向上のための練習(4):「会話のメリハリ/なめらかさ」)
前記図4(A)〜(E)で示したように、今回の判定対象(出題)の英語例文「It has been so hot recently!」is1に対応するユーザの発音判定を行った際に、例えば、図9(A)に示すように、表示部17に表示された判定結果画面G6において、点数の低い判定項目[メリハリ]が識別表示HRされた場合に(ステップS1,S2(S21))、ユーザが、当該点数の低い会話のメリハリ(音の強弱・高低差)の練習をするため、前記識別表示HRされている判定項目[メリハリ]をタッチ操作する(ステップS3[メリハリ])。
(Practice for skill improvement after pronunciation determination (4): “Conversation sharpness / smoothness”)
As shown in FIGS. 4A to 4E, when the user's pronunciation determination corresponding to the English example sentence “It has been so hot recently!” As shown in FIG. 9 (A), when the determination item [Brightness] with a low score is identified and displayed HR on the determination result screen G6 displayed on the display unit 17 (steps S1, S2 (S21)), In order to practice the sharpness of the conversation with a low score (sound intensity / height difference), the user performs a touch operation on the determination item [brightness] on the identification display HR (step S3 [brightness]).

すると、CPU11は、記憶部12に記憶されている学習コンテンツデータ((C)英会話アプリ:会話例文)12b3を起動させ(ステップS12)、当該英会話アプリ(会話例文)によって、図9(B)に示すように、当該英会話アプリ(会話例文)に対応したプレイリストに含まれる各項目(フレーズ)の会話表示名を一覧にした[リスニング]プレイリスト画面G11を表示部17に表示させる(ステップS13)。   Then, the CPU 11 activates the learning content data ((C) English conversation app: conversation example sentence) 12b3 stored in the storage unit 12 (step S12), and the English conversation application (conversation example sentence) causes the learning content data to be stored in FIG. 9B. As shown, a [listening] playlist screen G11 listing the conversation display names of the items (phrases) included in the playlist corresponding to the English conversation application (conversation example sentence) is displayed on the display unit 17 (step S13). .

前記[リスニング]プレイリスト画面G11において、[再生]アイコンQがタッチ操作されると、CPU11は、前記英会話アプリ(会話例文)によって、ユーザ操作に応じて選択されているかまたは自動で選択されて識別表示Hされている項目に対応する会話例文のテキストデータと模範の発音の音声データ(英語音声と日本語訳音声)とを読み出す。そして、読み出した会話例文のテキストデータcs1,cs2,…を、図9(C)に示すように、会話例文出力画面G12に順次表示させる毎に、当該テキストデータcs1,cs2,…に対応する模範の発音の音声データと日本語訳の音声データとを音声出力部19により再生させ、ユーザに視聴させる(ステップS14)。前記図9(C)に示す会話例文出力画面G12は、前記[リスニング]プレイリスト画面G11における項目[Chapter2 Day8 3語の重要フレーズ]が選択された場合を示している。   When the [play] icon Q is touched on the [listening] playlist screen G11, the CPU 11 is selected by the English conversation application (conversation example sentence) according to a user operation or automatically selected and identified. The text data of the conversation example sentence corresponding to the displayed item and the voice data of the model pronunciation (English voice and Japanese translation voice) are read. Then, each time the text data cs1, cs2,... Of the read conversation example sentences are sequentially displayed on the conversation example sentence output screen G12 as shown in FIG. 9C, the model corresponding to the text data cs1, cs2,. The voice output sound data and the Japanese translation voice data are reproduced by the voice output unit 19 and viewed by the user (step S14). The conversation example sentence output screen G12 shown in FIG. 9C shows a case where the item [Chapter2 Day8 3-word important phrase] in the [Listening] playlist screen G11 is selected.

別途定められた回数、模範の発音の音声データと日本語訳の音声データとを音声出力部19により再生させ、ユーザに視聴させたかどうかを判定する(ステップT6)。別途定められた回数、ユーザに視聴させた後、CPU11は、図9(C)に示すように、会話例文出力画面G12内に[再チャレンジ]アイコンB61を表示させる(ステップT6:Yes→T3)。以降の処理は、前述と同じであるので、説明を省略する。   The voice output unit 19 reproduces the voice data of the exemplary pronunciation and the Japanese translation voice data for a predetermined number of times, and determines whether or not the user has viewed the voice data (step T6). After allowing the user to view the number of times specified separately, the CPU 11 displays a [re-challenge] icon B61 in the conversation example sentence output screen G12 as shown in FIG. 9C (step T6: Yes → T3). . Since the subsequent processing is the same as described above, description thereof is omitted.

再実行された発音判定処理での判定結果画面G6により、ユーザは、前記メリハリ、なめらかさの練習の成果を確認できる。つまり、図示を省略するが、図8(D)と同様の判定結果画面G6では、識別表示HRおよび前回と今回のバランスチャートBCb,BCrにより、ユーザは、判定項目[メリハリ]又は[なめらかさ]の各点数が上がっていることを確認できる。   From the determination result screen G6 in the re-executed pronunciation determination process, the user can confirm the result of the practice of sharpness and smoothness. That is, although not shown, in the determination result screen G6 similar to that in FIG. 8D, the user can determine the determination item [Smooth] or [Smooth] by the identification display HR and the previous and current balance charts BCb and BCr. It can be confirmed that each of the points has increased.

発音判定処理を再度実行した結果、例えば、前回のステップS3に対応する判定結果画面G6でタッチ操作した項目[メリハリ]又は[なめらかさ]について発音スキルが向上したものの、それとは異なる判定項目([音読時間][脱カタカナ英語度][子音の強さ][なめらかさ]又は[メリハリ]のいずれか)について発音スキルが低下した場合には、それについても確認できる。そこで、CPU11によって2回目以降に実行されるステップS3において、ユーザは、発音スキルが低下したいずれかの判定項目をタッチ操作すれば、引き続き、当該判定項目についての発音スキルの向上のための練習を続けることができる。   As a result of executing the pronunciation determination process again, for example, although the pronunciation skill has improved for the item [smooth] or [smoothness] touched on the determination result screen G6 corresponding to the previous step S3, the determination item ([ If the pronunciation skill is reduced for either "Reading time", "Deciphered katakana English level", "Consonant strength", "Smoothness" or "Smoothness"), this can also be confirmed. Therefore, in step S3 executed by the CPU 11 for the second and subsequent times, if the user touches any determination item whose pronunciation skill has decreased, the user continues to practice for improving the pronunciation skill for the determination item. You can continue.

前記構成の学習支援装置10によれば、CPU11は、学習コンテンツデータ((A)発音判定アプリ:英語例文)12b1に基づいて、判定対象(出題)の英語例文is1のテキストデータを出題画面G3として表示部17に表示させ、当該英語例文is1に対応する模範の発音の音声データを音声出力部19に再生させる。そして、ユーザの発音した音声データを録音して解析し、複数の判定項目(音読時間/脱カタカナ英語度/子音の強さ/メリハリ/なめらかさ)について点数を付けて判定した判定結果の判定結果画面G6を表示部17に表示させる。   According to the learning support device 10 having the above-described configuration, the CPU 11 uses the text data of the English example sentence is1 as the determination target (question) as the question screen G3 based on the learning content data ((A) pronunciation determination application: English example sentence) 12b1. The voice data of the model pronunciation corresponding to the English example sentence is1 is displayed on the display unit 17 and reproduced by the voice output unit 19. Then, the voice data produced by the user is recorded and analyzed, and the determination result of the determination result is determined by assigning a score to a plurality of determination items (reading time / deciphering katakana English level / consonant strength / sharpness / smoothness). The screen G6 is displayed on the display unit 17.

前記判定結果画面G6において、例えば点数の低い判定項目がユーザにタッチ操作されると、タッチ操作された判定項目についてユーザの発音を改善するのに適した学習内容の練習処理を実行する。   In the determination result screen G6, for example, when a determination item with a low score is touched by the user, a learning content practice process suitable for improving the user's pronunciation for the touched determination item is executed.

すなわち、判定項目(音読時間)がタッチ操作された場合、CPU11は、前記判定対象(出題)の英語例文is1と同じ語彙数の他の英語例文is2を各学習コンテンツデータ(A)12b1,(B)12b2,…の中から抽出し、抽出した英語例文is2に対応するテキストデータの表示と、模範の発音の音声データの再生と、ユーザの反芻する発音の判定とを、音読時間練習画面G7における[もう一度聞く]アイコンB71および[判定]アイコンB72のタッチ操作に応じて反復可能に実行し、ユーザに音読の速さの適切さを練習させる。   In other words, when the determination item (speech reading time) is touched, the CPU 11 selects another English example sentence is2 having the same vocabulary number as the English example is1 as the determination target (question) as each learning content data (A) 12b1, (B ) 12b2,..., And the display of the text data corresponding to the extracted English example sentence is2, the reproduction of the voice data of the exemplary pronunciation, and the determination of the pronunciation that the user refutes on the reading time practice screen G7 It is executed in an iterative manner according to the touch operation of the [Listen again] icon B71 and [Determination] icon B72, and allows the user to practice appropriate reading speed.

また、判定項目(脱カタカナ英語度)又は(子音の強さ)がタッチ操作された場合、CPU11は、学習コンテンツデータ((B)発音判定アプリ:英単語)12b2を起動させ、母音又は子音を含む複数の英単語wn…の中からユーザにより選択された英単語w1(又はw2)を抽出し、抽出した英単語wnに対応するテキストデータの表示と、模範の発音の音声データの再生と、ユーザの反芻する発音の判定とを、前記複数の英単語wn…の選択により反復可能に実行し、ユーザにカタカナ英語からの脱却又は発音の明瞭さを練習させる。   When the determination item (deciphered katakana English level) or (consonant strength) is touched, the CPU 11 activates the learning content data ((B) pronunciation determination app: English word) 12b2 to generate a vowel or consonant. Extracting an English word w1 (or w2) selected by the user from a plurality of English words wn including, displaying text data corresponding to the extracted English word wn, and reproducing voice data of an exemplary pronunciation; The determination of the pronunciation of the user's rebellion is performed in a repeatable manner by selecting the plurality of English words wn... To allow the user to practice the departure from katakana English or the clarity of pronunciation.

また、判定項目(メリハリ)又は(なめらかさ)がタッチ操作された場合、CPU11は、学習コンテンツデータ((C)英会話アプリ:会話例文)12b3を起動させ、複数の会話例文の中から自動あるいはユーザ任意の選択により抽出した会話例文cs1,cs2,…に対応するテキストデータの表示と、模範の発音の音声データ(英語と日本語訳)の再生と、ユーザの反芻する発音の判定とを、前記複数の会話例文の選択により反復可能に実行し、ユーザに発音のメリハリ(音の強弱・高低差)やなめらかさ(単語間の発音の適切さ)を練習させる。   When the determination item (sharpness) or (smoothness) is touched, the CPU 11 activates the learning content data ((C) English conversation app: conversation example sentence) 12b3 and automatically or from the plurality of conversation example sentences. The display of the text data corresponding to the conversation example sentences cs1, cs2,... Extracted by arbitrary selection, the reproduction of the voice data (English and Japanese translations) of the exemplary pronunciation, and the determination of the rebellious pronunciation of the user, It is executed repeatedly by selecting a plurality of conversation example sentences, and allows the user to practice pronunciation sharpness (sound intensity / difference in pitch) and smoothness (appropriate pronunciation between words).

よって、ユーザの発音の判定結果に基づいて、適切な次の学習内容をユーザに提示して練習させることが可能となり、ユーザ毎にその発音レベルに応じた一貫した発音の学習を行なうことができる。   Therefore, based on the determination result of the user's pronunciation, it is possible to present the user with appropriate next learning contents to practice, and consistent pronunciation learning according to the pronunciation level can be performed for each user. .

また、前記構成の学習支援装置10によれば、CPU11は、ユーザの発音の判定結果に基づき実行した練習処理の過程での発音判定の判定結果画面(G6,G10,G12)において、[再チャレンジ]アイコンB61を表記させ、当該[再チャレンジ]アイコンB61がタッチ操作されると、前記学習コンテンツデータ((A)発音判定アプリ:英語例文)12b1に基づいた判定対象(出題)の英語例文is1に対応するユーザの発音判定を再実行する。   Further, according to the learning support device 10 having the above-described configuration, the CPU 11 displays [Re-challenge] on the sound determination determination result screen (G6, G10, G12) in the course of the practice process executed based on the user's sound determination result. ] Icon B61, and when the [re-challenge] icon B61 is touched, the English example is1 of the determination target (question) based on the learning content data ((A) pronunciation determination app: English example sentence) 12b1 Re-execute the corresponding user's pronunciation determination.

これにより、ユーザは、前記練習処理の過程での発音判定の判定結果画面(G6,G10,G12)に表示された点数から、ユーザ自身の発音の改善度合いを確認し、前記[再チャレンジ]アイコンB61をタッチ操作して、再度、前記判定対象の英語例文is1に対応する発音判定を行なうことができる。   Thereby, the user confirms the improvement degree of the user's own pronunciation from the score displayed on the determination result screen (G6, G10, G12) of the pronunciation determination during the practice process, and the [re-challenge] icon By touching B61, pronunciation determination corresponding to the determination target English example is1 can be performed again.

また、前記構成の学習支援装置10によれば、CPU11は、前記判定結果画面G6において、前回の発音判定より点数の上がった判定項目がある場合、当該点数の上がった判定項目を赤枠で識別表示HRさせる。一方、前回の発音判定より点数の下がった判定項目がある場合、当該点数の下がった判定項目を青枠で識別表示HBさせると共に、警告メッセージM6を表示させる。   Further, according to the learning support device 10 having the above-described configuration, when there is a determination item whose score has increased from the previous pronunciation determination on the determination result screen G6, the CPU 11 identifies the determination item whose score has increased by a red frame. Display HR. On the other hand, when there is a determination item whose score is lower than the previous pronunciation determination, the determination item whose score is lower is identified and displayed HB with a blue frame and a warning message M6 is displayed.

これにより、ユーザは容易に発音判定の点数が下がった判定項目を見つけてタッチ操作し、当該点数の下がった判定項目について、引き続き、ユーザの発音を改善するのに適した学習内容の練習を行なうことができる。   As a result, the user easily finds and touches a determination item whose pronunciation determination score has decreased, and continues to practice learning content suitable for improving the user's pronunciation for the determination item whose score has decreased. be able to.

前記各実施形態において記載した学習支援装置10による各処理の手法、すなわち、図2のフローチャートに示す学習支援処理、図3のフローチャートに示す判定結果表示処理などの各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピ(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して配布することができる。   Each method of processing by the learning support apparatus 10 described in each of the embodiments, that is, each method such as the learning support process shown in the flowchart of FIG. 2 and the determination result display process shown in the flowchart of FIG. Can be stored in a recording medium such as a memory card (ROM card, RAM card, etc.), magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. Can be distributed.

また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワークN上を伝送させることができ、このプログラムデータを、通信ネットワークNに接続された電子機器のコンピュータに通信部によって取り込むことで、前述した学習支援機能を実現することもできる。   Further, the program data for realizing each of the above methods can be transmitted on the communication network N in the form of a program code, and the program data is transmitted to the computer of the electronic device connected to the communication network N as a communication unit. The learning support function described above can also be realized by taking in

本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が異なる形態にして組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。   The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention when it is practiced. Further, each of the embodiments includes inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in each embodiment or some constituent elements are combined in different forms, the problems described in the column of the problem to be solved by the invention If the effects described in the column “Effects of the Invention” can be obtained, a configuration in which these constituent requirements are deleted or combined can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。   The invention described in the scope of the claims of the present application will be appended below.

[1]
第1の判定対象に対応した発音の音声データを入力し当該発音を複数種類の判定項目毎に判定し、
前記複数種類の判定項目毎の第1の判定結果の何れかが特定の状態となった場合、当該第1の判定結果において特定の状態となった判定項目について前記発音を向上させるための処理を実行する、
制御部
を備えた学習支援装置。
[1]
Input sound data of pronunciation corresponding to the first determination target, determine the pronunciation for each of a plurality of types of determination items,
When any one of the first determination results for each of the plurality of types of determination items is in a specific state, a process for improving the pronunciation of the determination items that are in the specific state in the first determination result Execute,
A learning support apparatus including a control unit.

[2]
前記制御部は、
前記第1の判定結果において特定の状態となった判定項目についての前記発音を向上させるための処理を実行した後、前記第1の判定対象と同じか又は異なる第2の判定対象に対応した発音の音声データを入力し当該発音を前記複数種類の判定項目毎に再度判定する、
[1]に記載の学習支援装置。
[2]
The controller is
After executing the process for improving the pronunciation of the determination item that is in a specific state in the first determination result, the pronunciation corresponding to the second determination target that is the same as or different from the first determination target The sound data is input, and the pronunciation is determined again for each of the plurality of types of determination items.
The learning support apparatus according to [1].

[3]
前記制御部は、
前記再度判定を行った結果、前記複数種類の判定項目毎の第2の判定結果の何れかが特定の状態となった場合、当該第2の判定結果において特定の状態となった判定項目について前記発音を向上させるための処理を再度実行する、
[2]に記載の学習支援装置。
[3]
The controller is
As a result of performing the determination again, if any of the second determination results for each of the plurality of types of determination items is in a specific state, the determination items that are in a specific state in the second determination result Re-execute processing to improve pronunciation,
The learning support apparatus according to [2].

[4]
前記制御部は、
第1の英語例文を前記第1の判定対象として、音読時間についての判定項目が前記特定の状態となった場合、前記学習支援装置の記憶部に記憶された第1の英語例文と同等の語彙数を含み当該第1の英語例文とは異なる第2の英語例文を指定し、
指定した前記第2の英語例文を用いて、前記音読時間について前記発音を向上させるための処理を実行する、
[3]に記載の学習支援装置。
[4]
The controller is
A vocabulary equivalent to the first English example sentence stored in the storage unit of the learning support device when the first English example sentence is the first determination target and the determination item for reading aloud is in the specific state Specify a second English example sentence that includes a number and is different from the first English example sentence;
Using the designated second English example sentence, executing a process for improving the pronunciation for the reading time;
The learning support apparatus according to [3].

[5]
前記制御部は、
第1の英語例文を前記第1の判定対象として、音読時間についての判定項目が前記特定の状態となった場合、第1の英語例文と同等の語彙数を含み当該第1の英語例文とは異なる第2の英語例文を第2の判定対象として、当該第2の判定対象に対応した発音の音声データを入力し当該発音を前記複数種類の判定項目毎に再度判定する、
[2]乃至[4]の何れかに記載の学習支援装置。
[5]
The controller is
When the first English example sentence is the first determination target and the determination item for the reading time is in the specific state, the first English example sentence includes the same number of vocabulary as the first English example sentence. Using different second English example sentences as second determination targets, sound data corresponding to the second determination target is input, and the pronunciation is determined again for each of the plurality of types of determination items.
The learning support apparatus according to any one of [2] to [4].

[6]
前記制御部は、
脱カタカナ英語度、又は、子音の強さについての判定項目が前記特定の状態となった場合、前記学習支援装置の記憶部に記憶された機能のうち、英単語の母音又は子音の発音を向上させるための機能を用いて、前記脱カタカナ英語度、又は、子音の強さについて前記発音を向上させるための処理を実行する、
[1]乃至[5]の何れかに記載の学習支援装置。
[6]
The controller is
Improve pronunciation of vowels or consonants of English words out of the functions stored in the storage unit of the learning support device when the judgment item about the degree of katakana English or the strength of consonants is in the specific state Using the function for making the said katakana English level, or processing for improving the pronunciation for the strength of the consonant,
The learning support device according to any one of [1] to [5].

[7]
前記制御部は、
メリハリ、又は、なめらかさについての判定項目が前記特定の状態となった場合、前記学習支援装置の記憶部に記憶された機能のうち、会話例文の発音を向上させるための機能を用いて、前記メリハリ、又は、なめらかさについて前記発音を向上させるための処理を実行する、
[1]乃至[6]の何れかに記載の学習支援装置。
[7]
The controller is
When the determination item for smoothness or smoothness is in the specific state, among the functions stored in the storage unit of the learning support device, using a function for improving pronunciation of the conversation example sentence, Execute processing for improving the pronunciation for sharpness or smoothness;
[1] The learning support device according to any one of [6].

[8]
前記制御部は、
前記判定結果の何れかが特定の状態となった場合、当該特定の状態となった何れかの種類の判定項目を、前記特定の状態とならなかった何れかの種類の判定項目と、区別可能に出力部によって出力させる、
[1]乃至[7]の何れかに記載の学習支援装置。
[8]
The controller is
When any of the determination results is in a specific state, any type of determination item that has reached the specific state can be distinguished from any type of determination item that has not been in the specific state. To output by the output unit,
The learning support apparatus according to any one of [1] to [7].

[9]
電子機器の制御部により、
第1の判定対象に対応した発音の音声データを入力し当該発音を複数種類の判定項目毎に判定し、
前記複数種類の判定項目毎の第1の判定結果の何れかが特定の状態となった場合、当該第1の判定結果において特定の状態となった判定項目について前記発音を向上させるための処理を実行する、
ようにした学習支援方法。
[9]
By the control unit of the electronic equipment,
Input sound data of pronunciation corresponding to the first determination target, determine the pronunciation for each of a plurality of types of determination items,
When any one of the first determination results for each of the plurality of types of determination items is in a specific state, a process for improving the pronunciation of the determination items that are in the specific state in the first determination result Execute,
Learning support method.

[10]
電子機器のコンピュータを、
第1の判定対象に対応した発音の音声データを入力し当該発音を複数種類の判定項目毎に判定し、
前記複数種類の判定項目毎の第1の判定結果の何れかが特定の状態となった場合、当該第1の判定結果において特定の状態となった判定項目について前記発音を向上させるための処理を実行する、
手段として機能させるためのコンピュータ読み込み可能な学習支援プログラム。
[10]
The electronic computer,
Input sound data of pronunciation corresponding to the first determination target, determine the pronunciation for each of a plurality of types of determination items,
When any one of the first determination results for each of the plurality of types of determination items is in a specific state, a process for improving the pronunciation of the determination items that are in the specific state in the first determination result Execute,
A computer-readable learning support program for functioning as a means.

10 …学習支援装置
11 …CPU
12 …記憶部
12a…学習支援処理プログラム
12b…学習コンテンツデータ
12b1…学習コンテンツデータ((A)発音判定アプリ:英語例文)
12b2…学習コンテンツデータ((B)発音判定アプリ:英単語)
12b3…学習コンテンツデータ((C)英会話アプリ:会話例文)
12c…発音判定結果データ
12d…表示データ
15 …通信部
16 …キー入力部
17 …タッチパネル付き表示部
18 …音声入力部
19 …音声出力部
20 …Webサーバ
N …通信ネットワーク(インターネットなど)
G1 …発音判定初期画面
G6 …判定結果画面
G7 …音読時間練習画面
G10…英単語一覧画面(母音/子音)
G12…会話例文出力画面
B61…[再チャレンジ]アイコン
10 ... Learning support device 11 ... CPU
DESCRIPTION OF SYMBOLS 12 ... Memory | storage part 12a ... Learning support processing program 12b ... Learning content data 12b1 ... Learning content data ((A) pronunciation determination application: English example sentence)
12b2 ... Learning content data ((B) pronunciation determination app: English words)
12b3 ... Learning content data ((C) English conversation app: conversation example)
12c ... Sound generation determination result data 12d ... Display data 15 ... Communication unit 16 ... Key input unit 17 ... Display unit with touch panel 18 ... Audio input unit 19 ... Audio output unit 20 ... Web server N ... Communication network (Internet etc.)
G1… pronunciation determination initial screen G6… determination result screen G7… reading time practice screen G10… English word list screen (vowel / consonant)
G12 ... Conversational example output screen B61 ... [Re-challenge] icon

Claims (10)

第1の判定対象に対応した発音の音声データを入力し当該発音を複数種類の判定項目毎に判定し、
前記複数種類の判定項目毎の第1の判定結果の何れかが特定の状態となった場合、当該第1の判定結果において特定の状態となった判定項目について前記発音を向上させるための処理を実行する、
制御部
を備えた学習支援装置。
Input sound data of pronunciation corresponding to the first determination target, determine the pronunciation for each of a plurality of types of determination items,
When any one of the first determination results for each of the plurality of types of determination items is in a specific state, a process for improving the pronunciation of the determination items that are in the specific state in the first determination result Execute,
A learning support apparatus including a control unit.
前記制御部は、
前記第1の判定結果において特定の状態となった判定項目についての前記発音を向上させるための処理を実行した後、前記第1の判定対象と同じか又は異なる第2の判定対象に対応した発音の音声データを入力し当該発音を前記複数種類の判定項目毎に再度判定する、
請求項1に記載の学習支援装置。
The controller is
After executing the process for improving the pronunciation of the determination item that is in a specific state in the first determination result, the pronunciation corresponding to the second determination target that is the same as or different from the first determination target The sound data is input, and the pronunciation is determined again for each of the plurality of types of determination items.
The learning support apparatus according to claim 1.
前記制御部は、
前記再度判定を行った結果、前記複数種類の判定項目毎の第2の判定結果の何れかが特定の状態となった場合、当該第2の判定結果において特定の状態となった判定項目について前記発音を向上させるための処理を再度実行する、
請求項2に記載の学習支援装置。
The controller is
As a result of performing the determination again, if any of the second determination results for each of the plurality of types of determination items is in a specific state, the determination items that are in a specific state in the second determination result Re-execute processing to improve pronunciation,
The learning support apparatus according to claim 2.
前記制御部は、
第1の英語例文を前記第1の判定対象として、音読時間についての判定項目が前記特定の状態となった場合、前記学習支援装置の記憶部に記憶された第1の英語例文と同等の語彙数を含み当該第1の英語例文とは異なる第2の英語例文を指定し、
指定した前記第2の英語例文を用いて、前記音読時間について前記発音を向上させるための処理を実行する、
請求項3に記載の学習支援装置。
The controller is
A vocabulary equivalent to the first English example sentence stored in the storage unit of the learning support device when the first English example sentence is the first determination target and the determination item for reading aloud is in the specific state Specify a second English example sentence that includes a number and is different from the first English example sentence;
Using the designated second English example sentence, executing a process for improving the pronunciation for the reading time;
The learning support device according to claim 3.
前記制御部は、
第1の英語例文を前記第1の判定対象として、音読時間についての判定項目が前記特定の状態となった場合、第1の英語例文と同等の語彙数を含み当該第1の英語例文とは異なる第2の英語例文を第2の判定対象として、当該第2の判定対象に対応した発音の音声データを入力し当該発音を前記複数種類の判定項目毎に再度判定する、
請求項2乃至4の何れか1項に記載の学習支援装置。
The controller is
When the first English example sentence is the first determination target and the determination item for the reading time is in the specific state, the first English example sentence includes the same number of vocabulary as the first English example sentence. Using different second English example sentences as second determination targets, sound data corresponding to the second determination target is input, and the pronunciation is determined again for each of the plurality of types of determination items.
The learning support apparatus according to any one of claims 2 to 4.
前記制御部は、
脱カタカナ英語度、又は、子音の強さについての判定項目が前記特定の状態となった場合、前記学習支援装置の記憶部に記憶された機能のうち、英単語の母音又は子音の発音を向上させるための機能を用いて、前記脱カタカナ英語度、又は、子音の強さについて前記発音を向上させるための処理を実行する、
請求項1乃至5の何れか1項に記載の学習支援装置。
The controller is
Improve pronunciation of vowels or consonants of English words out of the functions stored in the storage unit of the learning support device when the judgment item about the degree of katakana English or the strength of consonants is in the specific state Using a function for making the said katakana English level, or processing for improving the pronunciation for the strength of consonants,
The learning support apparatus according to any one of claims 1 to 5.
前記制御部は、
メリハリ、又は、なめらかさについての判定項目が前記特定の状態となった場合、前記学習支援装置の記憶部に記憶された機能のうち、会話例文の発音を向上させるための機能を用いて、前記メリハリ、又は、なめらかさについて前記発音を向上させるための処理を実行する、
請求項1乃至6の何れか1項に記載の学習支援装置。
The controller is
When the determination item for smoothness or smoothness is in the specific state, among the functions stored in the storage unit of the learning support device, using a function for improving pronunciation of the conversation example sentence, Execute processing for improving the pronunciation for sharpness or smoothness;
The learning support apparatus according to any one of claims 1 to 6.
前記制御部は、
前記判定結果の何れかが特定の状態となった場合、当該特定の状態となった何れかの種類の判定項目を、前記特定の状態とならなかった何れかの種類の判定項目と、区別可能に出力部によって出力させる、
請求項1乃至7の何れか1項に記載の学習支援装置。
The controller is
When any of the determination results is in a specific state, any type of determination item that has reached the specific state can be distinguished from any type of determination item that has not been in the specific state. To output by the output unit,
The learning support apparatus according to any one of claims 1 to 7.
電子機器の制御部により、
第1の判定対象に対応した発音の音声データを入力し当該発音を複数種類の判定項目毎に判定し、
前記複数種類の判定項目毎の第1の判定結果の何れかが特定の状態となった場合、当該第1の判定結果において特定の状態となった判定項目について前記発音を向上させるための処理を実行する、
ようにした学習支援方法。
By the control unit of the electronic equipment,
Input sound data of pronunciation corresponding to the first determination target, determine the pronunciation for each of a plurality of types of determination items,
When any one of the first determination results for each of the plurality of types of determination items is in a specific state, a process for improving the pronunciation of the determination items that are in the specific state in the first determination result Execute,
Learning support method.
電子機器のコンピュータを、
第1の判定対象に対応した発音の音声データを入力し当該発音を複数種類の判定項目毎に判定し、
前記複数種類の判定項目毎の第1の判定結果の何れかが特定の状態となった場合、当該第1の判定結果において特定の状態となった判定項目について前記発音を向上させるための処理を実行する、
手段として機能させるためのコンピュータ読み込み可能な学習支援プログラム。
The electronic computer,
Input sound data of pronunciation corresponding to the first determination target, determine the pronunciation for each of a plurality of types of determination items,
When any one of the first determination results for each of the plurality of types of determination items is in a specific state, a process for improving the pronunciation of the determination items that are in the specific state in the first determination result Execute,
A computer-readable learning support program for functioning as a means.
JP2018059698A 2018-03-27 2018-03-27 LEARNING SUPPORT DEVICE, LEARNING SUPPORT METHOD AND PROGRAM Active JP7135372B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018059698A JP7135372B2 (en) 2018-03-27 2018-03-27 LEARNING SUPPORT DEVICE, LEARNING SUPPORT METHOD AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018059698A JP7135372B2 (en) 2018-03-27 2018-03-27 LEARNING SUPPORT DEVICE, LEARNING SUPPORT METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2019174525A true JP2019174525A (en) 2019-10-10
JP7135372B2 JP7135372B2 (en) 2022-09-13

Family

ID=68168714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018059698A Active JP7135372B2 (en) 2018-03-27 2018-03-27 LEARNING SUPPORT DEVICE, LEARNING SUPPORT METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7135372B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113327467A (en) * 2020-02-12 2021-08-31 卡西欧计算机株式会社 Learning support device, learning support method, and recording medium
WO2023248520A1 (en) * 2022-06-20 2023-12-28 オムロンヘルスケア株式会社 Cognitive function test device and cognitive function test program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006348A (en) * 2001-06-25 2003-01-10 Nova:Kk Education service system and education service providing method using communication line
US20090258333A1 (en) * 2008-03-17 2009-10-15 Kai Yu Spoken language learning systems
JP2014089443A (en) * 2012-10-03 2014-05-15 Tottori Univ Instruction device for reading aloud character and instruction program for reading aloud character
JP2016045420A (en) * 2014-08-25 2016-04-04 カシオ計算機株式会社 Pronunciation learning support device and program
JP2016164628A (en) * 2015-03-06 2016-09-08 ブラザー工業株式会社 Read-aloud evaluation device, read-aloud evaluation method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006348A (en) * 2001-06-25 2003-01-10 Nova:Kk Education service system and education service providing method using communication line
US20090258333A1 (en) * 2008-03-17 2009-10-15 Kai Yu Spoken language learning systems
JP2014089443A (en) * 2012-10-03 2014-05-15 Tottori Univ Instruction device for reading aloud character and instruction program for reading aloud character
JP2016045420A (en) * 2014-08-25 2016-04-04 カシオ計算機株式会社 Pronunciation learning support device and program
JP2016164628A (en) * 2015-03-06 2016-09-08 ブラザー工業株式会社 Read-aloud evaluation device, read-aloud evaluation method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113327467A (en) * 2020-02-12 2021-08-31 卡西欧计算机株式会社 Learning support device, learning support method, and recording medium
CN113327467B (en) * 2020-02-12 2023-11-28 卡西欧计算机株式会社 Learning support device, learning support method, and recording medium
WO2023248520A1 (en) * 2022-06-20 2023-12-28 オムロンヘルスケア株式会社 Cognitive function test device and cognitive function test program

Also Published As

Publication number Publication date
JP7135372B2 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
JP2016045420A (en) Pronunciation learning support device and program
KR20170035529A (en) Electronic device and voice recognition method thereof
JP5105943B2 (en) Utterance evaluation device and utterance evaluation program
JP2015036788A (en) Pronunciation learning device for foreign language
JP6613560B2 (en) Electronic device, learning support method and program
JP7135372B2 (en) LEARNING SUPPORT DEVICE, LEARNING SUPPORT METHOD AND PROGRAM
JP6166831B1 (en) Word learning support device, word learning support program, and word learning support method
JP6641680B2 (en) Audio output device, audio output program, and audio output method
JP6466391B2 (en) Language learning device
JP7376071B2 (en) Computer program, pronunciation learning support method, and pronunciation learning support device
JP6841309B2 (en) Electronics and programs
JP6623575B2 (en) Learning support device and program
JP6746886B2 (en) Learning support device and program for the learning support device
JP7013702B2 (en) Learning support device, learning support method, and program
KR20140028527A (en) Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word
JP6155102B2 (en) Learning support device
JP7118389B2 (en) Language learning device, language learning method, and language learning program
JP2007071904A (en) Speaking learning support system by region
JP2016224283A (en) Conversation training system for foreign language
JP2006078802A (en) Device and method for supporting learning, and program
JP3767581B2 (en) Typing skill acquisition support device, word learning acquisition support device, server terminal, and program
JP7338737B2 (en) ELECTRONIC DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
JP7425243B1 (en) Information processing device and information processing method
WO2022208692A1 (en) Display data generation device, display data generation method, and display data generation program
JP2001282096A (en) Foreign language pronunciation evaluation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7135372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150