JP2023046222A - Electronic apparatus, information processing method and program - Google Patents

Electronic apparatus, information processing method and program Download PDF

Info

Publication number
JP2023046222A
JP2023046222A JP2022047169A JP2022047169A JP2023046222A JP 2023046222 A JP2023046222 A JP 2023046222A JP 2022047169 A JP2022047169 A JP 2022047169A JP 2022047169 A JP2022047169 A JP 2022047169A JP 2023046222 A JP2023046222 A JP 2023046222A
Authority
JP
Japan
Prior art keywords
voice
text
marker
learning
sample voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022047169A
Other languages
Japanese (ja)
Inventor
悠希 横田
Yuki Yokota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to CN202211092177.XA priority Critical patent/CN115840554A/en
Publication of JP2023046222A publication Critical patent/JP2023046222A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide: an electronic apparatus capable of effectively performing language learning; an information processing method; and a program.SOLUTION: According to an embodiment of the present invention, an electronic apparatus has a control part for executing processing in a text marker mode and in an evaluation mode, wherein the text marker mode causes to display a marker representing a reproduction position of a sample voice with respect to a text corresponding to the sample voice caused to be displayed on a display part in accordance with reproduction timing of the sample voice, without outputting, from a voice output part, the sample voice corresponding to the text selected as a processing object, and wherein the evaluation mode causes to display the text corresponding to the sample voice on the display part, and inputs, from a voice input part, an orally read voice obtained by orally reading the text, and evaluates the orally read voice on the basis of the sample voice, and causes to display an evaluation result on the display part.SELECTED DRAWING: Figure 1

Description

本発明は、言語学習に好適な電子機器、情報処理方法及びプログラムに関する。 The present invention relates to an electronic device, an information processing method, and a program suitable for language learning.

電子辞書やパーソナルコンピュータなどの電子機器に実装された学習機能には、外国語の言語を学習することを目的としたものがある。言語の学習では、例えば外国語の言語により読み上げられる文章の聞き取りをするリスニング学習、外国語の言語を正しく発音できるようにするためのスピーキング学習などがある。 Some learning functions implemented in electronic devices such as electronic dictionaries and personal computers are aimed at learning foreign languages. Language learning includes, for example, listening learning for listening to sentences read out in a foreign language, and speaking learning for correctly pronouncing the foreign language.

リスニング学習では、例えば、文章(テキスト)を表示させながら、表示された文章を読み上げるネイティブスピーカにより音声を出力させる。学習者は、ネイティブスピーカによる音声を繰り返して効くことで、ネイティブスピーカによる発声を学習することができる。 In listening learning, for example, while a sentence (text) is displayed, a native speaker who reads out the displayed sentence outputs voice. A learner can learn the utterance by a native speaker by repeating the voice by the native speaker.

スピーキング学習では、例えば、学習者により発声させる文章(テキスト)を表示させ、この表示された文章に対して学習者が音読した音声を入力し、この音声に対して発音判定機能による評価結果を出力する。学習者は、発音判定機能による評価結果を確認して、読み上げスピードや発音などをフィードバックする。 In speaking learning, for example, a sentence (text) to be uttered by the learner is displayed, the learner reads the displayed sentence aloud, and the result of evaluation by the pronunciation judgment function is output for this voice. do. The learner confirms the evaluation result by the pronunciation judgment function and gives feedback on the reading speed, pronunciation, etc.

特開2007-094055号公報JP 2007-094055 A

このように従来の電子機器では、言語の学習のためのリスニング学習やスピーキング学習などの学習機能が設けられたものがあるが、学習者に適した効果的な言語学習をすることができなかった。 In this way, some conventional electronic devices are provided with learning functions such as listening learning and speaking learning for language learning, but they have not been able to perform language learning suitable and effective for learners. .

本発明は、前記のような課題に考慮してなされたもので、効果的に言語学習することができる電子機器、情報処理方法及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in consideration of the above problems, and an object of the present invention is to provide an electronic device, an information processing method, and a program that enable effective language learning.

上記の課題を解決するために、本発明の実施形態に係る電子機器は、処理対象として選択されたテキストに応じた見本音声を音声出力部から出力させずに、前記見本音声の再生タイミングに合わせて、表示部に表示させた前記見本音声に対応する前記テキストに対して、前記見本音声の再生位置を表すマーカを表示させるテキストマーカモード、前記見本音声に対応する前記テキストを前記表示部に表示させ、前記テキストを音読した音読音声を音声入力部から入力して、前記音読音声について前記見本音声に基づいて評価し、評価結果を前記表示部において表示させる評価モード、による処理を実行する制御部を有する。 In order to solve the above problems, an electronic device according to an embodiment of the present invention does not output a sample voice corresponding to a text selected as a processing target from a voice output unit, but synchronizes the sample voice with the reproduction timing of the sample voice. a text marker mode for displaying a marker indicating a reproduction position of the sample voice for the text corresponding to the sample voice displayed on the display unit; and displaying the text corresponding to the sample voice on the display unit. an evaluation mode for inputting the reading voice obtained by reading the text aloud from the voice input unit, evaluating the reading voice based on the sample voice, and displaying the evaluation result on the display unit. have

本発明によれば、効果的に言語学習することができる電子機器、情報処理方法及びプログラムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the electronic device, the information processing method, and program which can learn a language effectively can be provided.

本発明の実施形態に係る電子機器の電子回路の構成を示す機能ブロック図。1 is a functional block diagram showing the configuration of an electronic circuit of an electronic device according to an embodiment of the invention; FIG. 本実施形態における電子辞書の外観構成を示す正面図。1 is a front view showing the external configuration of an electronic dictionary according to this embodiment; FIG. 本実施形態における学習管理データの一例を示す図。The figure which shows an example of the learning management data in this embodiment. 本実施形態における学習設定処理を示すフローチャート。4 is a flowchart showing learning setting processing according to the embodiment; 本実施形態における学習設定データの設定内容の一例を示す図。FIG. 4 is a diagram showing an example of setting contents of learning setting data according to the embodiment; 本実施形態における電子辞書の学習処理プログラムによる学習処理を説明するためのフローチャート。4 is a flowchart for explaining learning processing by a learning processing program for an electronic dictionary according to the present embodiment; 図6に示す学習処理における学習ステップ1(第1モード)の処理を示すフローチャート。7 is a flowchart showing processing of learning step 1 (first mode) in the learning processing shown in FIG. 6; 図6に示す学習処理における学習ステップ2(第2モード)の処理を示すフローチャート。FIG. 7 is a flowchart showing processing of learning step 2 (second mode) in the learning processing shown in FIG. 6; FIG. 図6に示す学習処理における学習ステップ3(第3モード)の処理を示すフローチャート。FIG. 7 is a flowchart showing processing of learning step 3 (third mode) in the learning processing shown in FIG. 6; FIG. 本実施形態における第1モード用の学習画面DS1の一例を示す図。The figure which shows an example of learning screen DS1 for the 1st mode in this embodiment. 本実施形態における学習画面において、見本音声の再生と共に変化するマーカの一例を示す図。The figure which shows an example of the marker which changes with reproduction|regeneration of a sample audio|voice in the learning screen in this embodiment. 本実施形態における第2モード用の学習画面DS2の一例を示す図。The figure which shows an example of learning screen DS2 for 2nd mode in this embodiment. 本実施形態における第3モード用の学習画面DS3の一例を示す図。The figure which shows an example of learning screen DS3 for 3rd modes in this embodiment. 本実施形態における学習画面DS3において変化する第1マーカと第2マーカの一例を示す図。The figure which shows an example of the 1st marker and 2nd marker which change in learning screen DS3 in this embodiment. 本実施形態における評価結果画面DS4の一例を示す図。The figure which shows an example of evaluation result screen DS4 in this embodiment. 本発明の実施形態に係る学習支援システムの模式図。1 is a schematic diagram of a learning support system according to an embodiment of the present invention; FIG.

以下、図面により本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施形態に係る電子機器の電子回路の構成を示す機能ブロック図である。 FIG. 1 is a functional block diagram showing the configuration of an electronic circuit of an electronic device according to an embodiment of the invention.

本実施形態では、電子機器を例えば電子辞書10として構成した例について示す。なお、電子機器は、電子辞書10の他、パーソナルコンピュータ、スマートフォン、タブレットPC、ゲーム装置などの各種の電子機器により実現することが可能である。また、本実施形態では、後述する電子辞書10により実現される機能を、インターネットなどを含むネットワークを介して接続される電子機器とサーバとが協働するシステムによって実現しても良いし、電子辞書10に代わってサーバのみにより実現して、ネットワークを介して接続された電子機器において処理結果を出力するようにしても良い。詳細については後述する。 In this embodiment, an example in which an electronic device is configured as an electronic dictionary 10, for example, will be described. In addition to the electronic dictionary 10, the electronic device can be realized by various electronic devices such as a personal computer, a smart phone, a tablet PC, and a game device. Further, in the present embodiment, the functions realized by the electronic dictionary 10 described later may be realized by a system in which electronic devices and servers connected via a network including the Internet work together. Instead of 10, only a server may be used to output the processing result in an electronic device connected via a network. Details will be described later.

電子辞書10は、複数種類の辞書コンテンツが辞書データとして記録されている。辞書コンテンツでは、複数の見出し語とする単語等のそれぞれと対応づけて、少なくとも1つの語義に関する情報が登録されている。電子辞書10に搭載されている辞書コンテンツは、一般に出版社などによって作成され、紙媒体などによっても出版されたものを含んでおり信頼性が高い。従って、信頼性の高い辞書コンテンツを学習に有効利用することで、正しく効果的な学習の効果を期待することができる。 In the electronic dictionary 10, plural types of dictionary contents are recorded as dictionary data. In the dictionary content, at least one word sense information is registered in association with each of a plurality of words used as entry words. The dictionary contents installed in the electronic dictionary 10 are generally created by publishers, etc., and include those published on paper media, etc., and are highly reliable. Therefore, by effectively using highly reliable dictionary contents for learning, a correct and effective learning effect can be expected.

なお、辞書コンテンツは、英語系や国語系などの言語に関する辞書に限らず、百科事典、学習参考書、問題集、文学作品、解説書などのコンテンツなどを含む。 Note that dictionary content is not limited to dictionaries related to languages such as English and Japanese, and includes content such as encyclopedias, learning reference books, workbooks, literary works, and commentaries.

辞書コンテンツは、辞書検索機能によって利用するだけでなく、言語学習をするための学習コンテンツとして利用することができる。 The dictionary content can be used not only by the dictionary search function, but also as learning content for language learning.

電子辞書10は、各種の記録媒体に記録されたプログラム、又は、伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータの構成を有し、その電子回路には、CPU(central processing unit)11が備えられる。 The electronic dictionary 10 has a computer configuration in which programs recorded on various recording media or transmitted programs are read, and the operation is controlled by the read programs, and the electronic circuit includes a CPU ( central processing unit) 11 is provided.

CPU11は、電子辞書10の全体を制御する制御部として機能する。CPU11は、メモリ12内に予め記憶された制御プログラム、あるいはROMカードなどの記録媒体13から記録媒体読取部14を介してメモリ12に読み込まれた制御プログラム、あるいはインターネット等のネットワーク(図示せず)を通じて、外部装置(サーバ等)からダウンロードされてメモリ12に読み込まれた制御プログラムに応じて、回路各部の動作を制御する。 The CPU 11 functions as a control section that controls the electronic dictionary 10 as a whole. The CPU 11 receives a control program pre-stored in the memory 12, a control program read from a recording medium 13 such as a ROM card into the memory 12 via a recording medium reading unit 14, or a network such as the Internet (not shown). It controls the operation of each part of the circuit in accordance with a control program downloaded from an external device (server or the like) and read into the memory 12 through.

メモリ12に記憶された制御プログラムは、キー入力部16からのユーザ操作に応じた入力信号、表示部としてのタッチパネル式表示部17からのユーザ操作に応じた入力信号、あるいは記録媒体読取部14を介して接続されるEEPROM(登録商標),RAM,ROMなどの外部記録媒体13との接続通信信号に応じて起動される。 The control program stored in the memory 12 receives an input signal corresponding to a user operation from the key input unit 16, an input signal corresponding to a user operation from the touch panel type display unit 17 as a display unit, or the recording medium reading unit 14. It is activated in response to a connection communication signal with an external recording medium 13 such as an EEPROM (registered trademark), RAM, or ROM connected via.

CPU11には、メモリ12、記録媒体読取部14、通信部15、キー入力部16、タッチパネル式表示部17(ディスプレイ)、音声入力部(マイク)18、音声出力部(スピーカ)19などが接続される。一実施形態では、表示部は、タッチパネルとしての機能を有さなくても良い。例えば、表示部としてタッチパネル式表示部17の代わりにLCD(Liquid Crystal Display)を用いても良い。 Connected to the CPU 11 are a memory 12, a recording medium reading unit 14, a communication unit 15, a key input unit 16, a touch panel display unit 17 (display), an audio input unit (microphone) 18, an audio output unit (speaker) 19, and the like. be. In one embodiment, the display unit does not have to function as a touch panel. For example, an LCD (Liquid Crystal Display) may be used as the display unit instead of the touch panel type display unit 17 .

メモリ12に記憶される制御プログラムとしては、辞書制御プログラム12a、学習処理プログラム12bなどが含まれる。辞書制御プログラム12aは、電子辞書10の全体の動作制御するためのプログラムである。また、辞書制御プログラム12aは、入力部(キー入力部16、タッチパネル式表示部17、音声入力部18)により入力された文字列をもとに辞書コンテンツを検索して情報を表示させる辞書検索機能を実現する。また、辞書制御プログラム12aは、タッチパネル式表示部17に対する手書き文字を認識する手書き文字認識プログラムを含む。 Control programs stored in the memory 12 include a dictionary control program 12a, a learning processing program 12b, and the like. The dictionary control program 12 a is a program for controlling the overall operation of the electronic dictionary 10 . The dictionary control program 12a also has a dictionary search function of searching dictionary contents based on a character string input by the input unit (key input unit 16, touch panel display unit 17, voice input unit 18) and displaying information. Realize The dictionary control program 12a also includes a handwritten character recognition program for recognizing handwritten characters on the touch panel type display unit 17 .

学習処理プログラム12bは、外国語の言語を学習するための学習機能を実現するプログラムである。学習処理プログラム12bは、学習設定処理プログラム、音読評価プログラムを含む。学習設定処理プログラムは、学習機能の実行時の表示及び音声再生を制御するための学習設定データを、学習者による操作に応じて設定するための処理を実行するためのものである。音読評価プログラムは、音声入力部18から入力された学習者の音声を認識して、発話された内容(文章、文、単語など)を検出する処理、及び学習者によるテキストの音読音声とネイティブスピーカ(外国語を母国語する話者)などによるテキストに対する見本音声との比較に基づいて評価する処理を実行するためものである。 The learning processing program 12b is a program that implements a learning function for learning a foreign language. The learning processing program 12b includes a learning setting processing program and a reading evaluation program. The learning setting processing program is for executing processing for setting learning setting data for controlling display and sound reproduction when the learning function is executed, according to an operation by the learner. The reading aloud evaluation program recognizes the learner's voice input from the voice input unit 18, detects the uttered content (sentence, sentence, word, etc.), and reads the text aloud by the learner and the native speaker. It is intended to perform an evaluation process based on a comparison of sample speech against text, such as by (a native speaker of a foreign language).

本実施形態における電子辞書10は、学習処理プログラム12b(学習機能)に基づいて、学習処理の対象として選択された学習コンテンツ(テキスト)に応じた見本音声を再生して、音声出力部19から出力させ、かつ見本音声の再生速度(再生タイミング)に合わせて、タッチパネル式表示部17に表示させた見本音声に対応するテキストに対して、見本音声の再生位置を表すマーカを表示させる第1モード(見本音声モード)、見本音声を音声出力部19から出力させずに、見本音声の再生速度(再生タイミング)に合わせて、タッチパネル式表示部17に表示させた見本音声に対応するテキストに対して、見本音声の再生位置を表すマーカを表示させる第2モード(テキストマーカモード)、見本音声に対応するテキストをタッチパネル式表示部17に表示させ、テキストを音読した音読音声を音声入力部18から入力して、音読音声について見本音声に基づいて評価し、評価結果をタッチパネル式表示部17において表示させる第3モード(評価モード)による処理を実行する。 The electronic dictionary 10 according to the present embodiment reproduces a sample voice corresponding to the learning content (text) selected as the target of the learning process based on the learning processing program 12b (learning function), and outputs the sample voice from the voice output unit 19. A first mode ( sample voice mode), the text corresponding to the sample voice displayed on the touch panel display unit 17 in accordance with the playback speed (playback timing) of the sample voice without outputting the sample voice from the voice output unit 19, A second mode (text marker mode) for displaying a marker indicating the reproduction position of the sample voice, a text corresponding to the sample voice is displayed on the touch panel type display unit 17, and reading voice obtained by reading the text is input from the voice input unit 18. Then, the reading voice is evaluated based on the sample voice, and the processing in the third mode (evaluation mode) of displaying the evaluation result on the touch panel type display section 17 is executed.

メモリ12には、辞書データ12c、学習コンテンツデータ12d、学習管理データ12e、学習設定データ12f、音読評価データ12gなどが記憶される。 The memory 12 stores dictionary data 12c, learning content data 12d, learning management data 12e, learning setting data 12f, reading evaluation data 12g, and the like.

辞書データ12cには、例えば、英和辞書、和英辞書、英英辞書、英漢辞書、国語辞書などの複数の辞書、複数種類の事典などの辞書コンテンツを集録したデータベースが含まれる。辞書データ12cには、辞書毎に、各見出し語のそれぞれに対応する意味(語義)を説明する語義情報が対応づけられている。なお、辞書データ12cは、電子辞書10の本体に内蔵せずに、ネットワークを通じてアクセス可能な外部装置(サーバ等)に記憶されていても良い。 The dictionary data 12c includes, for example, multiple dictionaries such as an English-Japanese dictionary, a Japanese-English dictionary, an English-English dictionary, an English-Chinese dictionary, and a Japanese dictionary, and a database that collects dictionary contents such as multiple types of encyclopedias. The dictionary data 12c is associated with word sense information describing the meaning (word sense) corresponding to each entry word for each dictionary. Note that the dictionary data 12c may be stored in an external device (server or the like) that can be accessed through a network, instead of being built in the main body of the electronic dictionary 10. FIG.

学習コンテンツデータ12dは、学習処理プログラム12bによる学習機能に使用される学習用のデータである。学習コンテンツデータ12dは、複数の文を含む文章、文、単語などのテキストと、各テキストをネイティブスピーカが音読した見本音声及び見本音声を基準にして学習者による音読音声を評価するための評価基準データなどを含む。学習コンテンツデータ12dは、複数の学習コンテンツ(テキスト)を含み、学習者によって任意に選択されて学習に供される。 The learning content data 12d is learning data used for the learning function by the learning processing program 12b. The learning content data 12d includes texts including a plurality of sentences, sentences, words, etc., sample voices of each text read aloud by a native speaker, and evaluation criteria for evaluating reading voices by learners based on the sample voices. including data, etc. The learning content data 12d includes a plurality of learning contents (texts), which are arbitrarily selected by the learner and used for learning.

学習管理データ12eは、学習コンテンツデータ12dに含まれる複数の学習コンテンツの学習進捗を管理するためのデータである。学習管理データ12eでは、各学習コンテンツが、学習処理プログラム12b(学習機能)による第1~第3モードの何れまで実行済みであるかを示す学習進捗情報が登録される。 The learning management data 12e is data for managing learning progress of a plurality of learning contents included in the learning content data 12d. In the learning management data 12e, learning progress information indicating to which of the first to third modes each learning content has been executed by the learning processing program 12b (learning function) is registered.

学習設定データ12fは、学習処理プログラム12b(学習機能)の実行時の表示及び音声再生を制御するためのデータである。学習設定データ12fは、学習設定処理プログラムによる処理により設定される。 The learning setting data 12f is data for controlling display and audio reproduction when the learning processing program 12b (learning function) is executed. The learning setting data 12f is set by processing by a learning setting processing program.

音読評価データ12gは、学習処理プログラム12bの第3モードの実行によって、学習者による学習コンテンツのテキストを読み上げた音読音声について、見本音声に基づいて評価された評価結果を示すデータである。 The read-aloud evaluation data 12g is data indicating the evaluation result of the read-aloud reading of the text of the learning content by the learner, which is evaluated based on the sample voice by executing the third mode of the learning processing program 12b.

通信部15は、インターネットやLAN(Local Area Network)などのネットワークを介した、他の電子機器と通信する通信制御、あるいは近距離の他の電子機器との間で、Bluetooth(登録商標)やWi-Fi(登録商標)などの近距離無線通信をする通信制御を実行する。 The communication unit 15 controls communication with other electronic devices via a network such as the Internet or a LAN (Local Area Network), or communicates with other electronic devices at a short distance using Bluetooth (registered trademark) or Wi-Fi. - Execute communication control for short-range wireless communication such as Fi (registered trademark).

このように構成された電子辞書10は、CPU11が辞書制御プログラム12a、学習処理プログラム12b等の各種プログラムに記述された命令に従い回路各部の動作を制御し、ソフトウエアとハードウエアとが協働して動作することにより、以下の動作説明で述べる機能を実現する。 In the electronic dictionary 10 configured as described above, the CPU 11 controls the operation of each circuit part according to the instructions described in various programs such as the dictionary control program 12a and the learning processing program 12b, and the software and hardware work together. By operating as follows, the functions described in the following description of operation are realized.

図2は、本実施形態における電子辞書10の外観構成を示す正面図である。 FIG. 2 is a front view showing the external configuration of the electronic dictionary 10 according to this embodiment.

図2における電子辞書10の場合、開閉される装置本体の下段側にCPU11、メモリ12、記録媒体読取部14、通信部15、音声入力部18、音声出力部19が内蔵されると共にキー入力部16が設けられ、上段側にタッチパネル式表示部17が設けられる。 In the case of the electronic dictionary 10 shown in FIG. 2, a CPU 11, a memory 12, a recording medium reading section 14, a communication section 15, a voice input section 18, and a voice output section 19 are built in the lower side of the main body which is opened and closed, and a key input section. 16 is provided, and a touch panel type display unit 17 is provided on the upper side.

キー入力部16には、文字入力キー16a、各種の辞書や各種機能を選択することができる辞書選択キー16b、[訳/決定]キー16c、[戻る]キー16d、カーソルキー(上下左右キー)16e、削除キー16f、電源ボタン、その他の各種機能キーなどが備えられる。 The key input unit 16 includes a character input key 16a, a dictionary selection key 16b for selecting various dictionaries and various functions, a [translation/decision] key 16c, a [return] key 16d, and cursor keys (up, down, left, and right keys). 16e, a delete key 16f, a power button, and other various function keys.

タッチパネル式表示部17には、各種機能の実行に応じて、各種メニューやボタン17aなどが表示される。タッチパネル式表示部17では、例えばペンを用いて、各種メニューやボタン17aを選択するタッチ操作、文字を入力するための手書き文字入力をすることができる。 Various menus and buttons 17a are displayed on the touch panel display unit 17 according to the execution of various functions. On the touch panel type display unit 17, for example, a pen can be used to perform touch operations for selecting various menus and buttons 17a, and handwritten character input for inputting characters.

また、手書き文字入力では、タッチパネル式表示部17に表示された手書き文字入力エリアに、文字を表すパターンがペンにより手書されると、パターンについて文字認識処理を実行する。文字認識処理により得られたパターンに対する文字は、キー入力部16の文字入力キー16aの操作によって入力される文字と同様に、タッチパネル式表示部17の文字入力エリアに表示される。従って、辞書検索のための文字列を、タッチパネル式表示部17への手書き文字により入力することができる。 In handwritten character input, when a pattern representing a character is handwritten with a pen in the handwritten character input area displayed on the touch panel type display unit 17, character recognition processing is performed on the pattern. Characters corresponding to the pattern obtained by the character recognition process are displayed in the character input area of the touch panel display unit 17 in the same manner as characters input by operating the character input keys 16 a of the key input unit 16 . Therefore, a character string for dictionary search can be input by handwritten characters on the touch panel type display unit 17 .

また、電子辞書10は、音声によって文字を入力することができる。電子辞書10は、音声入力部18から学習者が発話した音声を入力し、入力された音声に対して音声認識処理を実行して、発話された音声に対応する文字列を入力する。 Also, the electronic dictionary 10 can input characters by voice. The electronic dictionary 10 inputs the voice uttered by the learner from the voice input unit 18, performs voice recognition processing on the input voice, and inputs a character string corresponding to the uttered voice.

図3は、本実施形態における学習管理データ12eの一例を示す図である。 FIG. 3 is a diagram showing an example of the learning management data 12e in this embodiment.

学習管理データ12eには、例えば学習コンテンツ(学習コンテンツ1,2,…)毎に、学習処理プログラム12b(学習機能)による第1~第3モードの何れについて実行済みであるかを示す学習進捗情報が登録される。図3に示す学習進捗情報は、学習ステップ1,2,3がそれぞれ第1モード、第2モード、第3モードを示している。図3に示す学習管理データ12eでは、学習コンテンツ3については、第1モードと第2モード(学習ステップ1,2)について実行済みを示す学習進捗情報が登録されている。学習機能による処理対象とされていないコンテンツ(例えば「学習コンテンツ2」)については未学習を示すデータが登録される。 The learning management data 12e includes learning progress information indicating which of the first to third modes has been executed by the learning processing program 12b (learning function) for each learning content (learning content 1, 2, . . . ), for example. is registered. In the learning progress information shown in FIG. 3, learning steps 1, 2, and 3 indicate the first mode, second mode, and third mode, respectively. In the learning management data 12e shown in FIG. 3, for the learning content 3, learning progress information indicating that the first mode and the second mode (learning steps 1 and 2) have been executed is registered. Data indicating non-learning is registered for contents that are not processed by the learning function (for example, "learning content 2").

次に、本実施形態における電子辞書10の動作について説明する。 Next, the operation of the electronic dictionary 10 according to this embodiment will be described.

まず、本実施形態における学習設定処理について説明する。図4は、本実施形態における学習設定処理を示すフローチャートである。 First, the learning setting process in this embodiment will be described. FIG. 4 is a flowchart showing learning setting processing in this embodiment.

CPU11は、学習処理プログラム12bによる学習機能の実行時に、学習設定処理の実行が例えばメニューに対する操作により指示されると、タッチパネル式表示部17に学習設定画面を表示させる(ステップS1)。 The CPU 11 displays a learning setting screen on the touch panel display unit 17 when execution of the learning setting process is instructed by, for example, a menu operation during execution of the learning function by the learning processing program 12b (step S1).

学習設定画面では、学習機能の実行時の表示及び音声再生を制御するための設定項目が表示される。例えば、学習設定画面には、学習機能の第3モードを実行する際に、学習コンテンツのテキストに対して、見本音声の再生位置を表す第1マーカ(ガイドマーカ)、音読音声の音読位置を表す第2マーカ(ユーザマーカ)のそれぞれについて表示するか否か(オン/オフ)を設定する設定項目が設けられる。 On the learning setting screen, setting items for controlling display and audio reproduction when the learning function is executed are displayed. For example, on the learning setting screen, when executing the third mode of the learning function, the first marker (guide marker) representing the playback position of the sample voice and the reading position of the reading voice for the text of the learning content A setting item is provided for setting whether or not to display (on/off) each of the second markers (user markers).

CPU11は、カーソルキー16eに操作あるいはタッチパネル式表示部17に対するタッチ操作により、設定項目に対する指示(学習設定)を受け付ける(ステップS2)。CPU11は、学習設定画面における設定入力の確定が、例えば[訳/決定]キー16cの操作、あるいは学習設定画面に設けられた確定ボタンに対するタッチ操作により指示されると(ステップS3、Yes)、学習設定画面において設定された学習設定内容、すなわち第1マーカの表示(オン)または非表示(オフ)、第2マーカの表示(オン)または非表示(オフ)を示す学習設定データ12fをメモリ12に記憶させる(ステップS4)。CPU11は、学習機能により第3モードを実行する際に学習設定データ12fを参照し、設定内容に応じて第1マーカと第2マーカの表示制御を実行する。 The CPU 11 accepts an instruction (learning setting) for a setting item by operating the cursor key 16e or by touching the touch panel type display unit 17 (step S2). When confirmation of the setting input on the learning setting screen is instructed by, for example, the operation of the [translate/determine] key 16c or a touch operation on the confirmation button provided on the learning setting screen (step S3, Yes), the CPU 11 The learning setting data 12f indicating the display (on) or non-display (off) of the first marker and the display (on) or non-display (off) of the second marker set on the setting screen are stored in the memory 12. It is stored (step S4). The CPU 11 refers to the learning setting data 12f when executing the third mode by the learning function, and executes display control of the first marker and the second marker according to the setting contents.

図5は、本実施形態における学習設定データ12fの設定内容の一例を示す図である。図5に示す例では、第1マーカ(ガイドマーカ)と第2マーカ(ユーザマーカ)のそれぞれに「オン」(表示有り)が設定されている。このため、第3モードでは、学習コンテンツのテキストに対して、第1マーカと第2マーカの両方が表示される。 FIG. 5 is a diagram showing an example of setting contents of the learning setting data 12f in this embodiment. In the example shown in FIG. 5, "on" (with display) is set for each of the first marker (guide marker) and the second marker (user marker). Therefore, in the third mode, both the first marker and the second marker are displayed for the text of the learning content.

こうして、学習設定処理において、第1マーカと第2マーカの両方を表示させる、第1マーカと第2マーカのいずれか一方を表示させる、あるいは第1マーカと第2マーカの両方を表示させないように、学習者の学習スタイルに応じて設定しておくことができる。 Thus, in the learning setting process, it is possible to display both the first marker and the second marker, display either the first marker or the second marker, or display neither the first marker nor the second marker. , can be set according to the learner's learning style.

なお、学習設定画面では、第1マーカと第2マーカの表示制御のための設定項目が設けられるとしているが、その他の学習設定ができるようにしても良い。 Note that the learning setting screen is provided with setting items for display control of the first marker and the second marker, but other learning settings may be made.

例えば、学習機能の実行時における、学習コンテンツの見本音声を再生する際の再生速度を設定できるようにしても良い。例えば、変更可能な数段階(例えば5段階)の選択肢を学習設定画面に表示させ、いずれかを任意に選択できるようにする。CPU11は、学習設定画面において選択された再生速度を示すデータを学習設定データ12fとして記憶させる。CPU11は、学習機能により第1~第3モードを実行する際に再生速度を示すデータを参照し、見本音声の再生タイミングおよび第1マーカの移動速度を制御する。 For example, it may be possible to set the playback speed at which the sample sound of the learning content is played back when the learning function is executed. For example, several changeable stages (for example, five stages) of options are displayed on the learning setting screen so that any one can be arbitrarily selected. The CPU 11 stores data indicating the reproduction speed selected on the learning setting screen as the learning setting data 12f. The CPU 11 refers to the data indicating the reproduction speed when executing the first to third modes by the learning function, and controls the reproduction timing of the sample voice and the movement speed of the first marker.

このようにして、学習設定処理において、学習機能の実行時のマーカの表示及び見本音声の再生速度を設定しておくことができる。これにより、学習機能を実行する際に、学習者の学習に適した表示及び音声再生が実行されるので、効果的な学習を期待することができる。 In this way, in the learning setting process, it is possible to set the display of the marker and the reproduction speed of the sample voice when the learning function is executed. As a result, when the learning function is executed, display and audio reproduction suitable for the learner's learning are executed, so effective learning can be expected.

次に、本実施形態における電子辞書10による学習機能による学習処理について説明する。 Next, learning processing by the learning function of the electronic dictionary 10 in this embodiment will be described.

図6は、本実施形態における電子辞書10の学習処理プログラム12bによる学習処理を説明するためのフローチャートである。図7は、図6に示す学習処理における学習ステップ1(第1モード(見本音声モード))の処理を示すフローチャートである。図8は、図6に示す学習処理における学習ステップ2(第2モード(テキストマーカモード))の処理を示すフローチャートである。図9は、図6に示す学習処理における学習ステップ3(第3モード(評価モード))の処理を示すフローチャートである。 FIG. 6 is a flowchart for explaining learning processing by the learning processing program 12b of the electronic dictionary 10 in this embodiment. FIG. 7 is a flow chart showing processing of learning step 1 (first mode (sample voice mode)) in the learning processing shown in FIG. FIG. 8 is a flow chart showing processing of learning step 2 (second mode (text marker mode)) in the learning processing shown in FIG. FIG. 9 is a flow chart showing processing of learning step 3 (third mode (evaluation mode)) in the learning processing shown in FIG.

まず、CPU11は、学習機能の実行が例えばメニューに対する操作により指示されると、タッチパネル式表示部17に学習対象とする学習コンテンツ(テキスト)の選択画面を表示させる。学習コンテンツの選択画面では、例えば、学習可能な複数の学習コンテンツを一覧表示させ、学習者の操作により任意に指定できるようにする。 First, when execution of the learning function is instructed by, for example, operating a menu, the CPU 11 displays a selection screen of learning content (text) to be learned on the touch panel type display section 17 . On the learning content selection screen, for example, a list of a plurality of learning contents that can be learned is displayed so that the learner can arbitrarily specify the content.

CPU11は、学習コンテンツの選択画面において、いずれかの学習コンテンツが指定されると(ステップA1)、指定された学習コンテンツの学習進捗情報を学習管理データ12eから取得する(ステップA2)。 When any learning content is designated on the learning content selection screen (step A1), the CPU 11 acquires learning progress information of the designated learning content from the learning management data 12e (step A2).

CPU11は、学習進捗情報が全ての学習ステップについて未学習を示す場合(ステップA3、Yes)、学習ステップ1(第1モード)に移行する(ステップA4)。本実施形態の電子辞書10では、学習ステップ1(第1モード)において、学習コンテンツに対するリスニング学習を実行させる。 When the learning progress information indicates that all the learning steps are unlearned (step A3, Yes), the CPU 11 shifts to learning step 1 (first mode) (step A4). In the electronic dictionary 10 of the present embodiment, listening learning for learning content is executed in learning step 1 (first mode).

CPU11は、全ての学習ステップについて未学習ではない場合(ステップA3、No)、学習ステップ1について未学習であるか判別する。CPU11は、学習ステップ1について未学習の場合(ステップA6、Yes)、学習ステップ1(第1モード)に移行する(ステップA4)。また、CPU11は、学習進捗情報が学習ステップ1済みを示す場合(ステップA6、No)、学習ステップ1については既に実行済みであるので、次に学習ステップ2について未学習であるか判別する。CPU11は、学習ステップ2について未学習の場合(ステップA9、Yes)、学習ステップ2(第2モード)に移行する(ステップA7)。本実施形態の電子辞書10では、学習ステップ2(第2モード)において、学習ステップ1においてリスニング学習を実行した同じ学習コンテンツについてスピーキング学習を実行させる。 When all the learning steps are not unlearned (step A3, No), the CPU 11 determines whether the learning step 1 is unlearned. If the learning step 1 has not been learned (step A6, Yes), the CPU 11 shifts to the learning step 1 (first mode) (step A4). Further, when the learning progress information indicates that learning step 1 has been completed (step A6, No), the CPU 11 determines whether learning step 2 has not been learned since learning step 1 has already been executed. If the learning step 2 has not been learned (step A9, Yes), the CPU 11 shifts to the learning step 2 (second mode) (step A7). In the electronic dictionary 10 of the present embodiment, in learning step 2 (second mode), speaking learning is performed for the same learning content for which listening learning was performed in learning step 1 .

また、CPU11は、学習進捗情報が学習ステップ2済みを示す場合(ステップA9、No)、学習ステップ2については既に実行済みであるので、学習ステップ3(第3モード)に移行する(ステップA10)。本実施形態の電子辞書10では、学習ステップ3(第3モード)において、学習ステップ1,2の学習の成果を確認するため、学習ステップ1,2においてリスニング/スピーキング学習を実行した同じ学習コンテンツについて音読を実行させて、見本音声との比較による評価結果を出力する。 Further, when the learning progress information indicates that learning step 2 has been completed (step A9, No), the CPU 11 has already executed learning step 2, so the CPU 11 shifts to learning step 3 (third mode) (step A10). . In the electronic dictionary 10 of the present embodiment, in learning step 3 (third mode), in order to confirm the results of learning in learning steps 1 and 2, the same learning content for which listening/speaking learning was performed in learning steps 1 and 2 Read aloud and output evaluation results by comparison with sample speech.

CPU11は、学習ステップ1(第1モード)の実行が完了した場合、基本的に、次に学習ステップ2(第2モード)に移行し、学習ステップ2(第2モード)の実行が完了した場合、基本的に、次に学習ステップ3(第3モード)に移行する。 When the execution of learning step 1 (first mode) is completed, the CPU 11 basically shifts to next learning step 2 (second mode), and when the execution of learning step 2 (second mode) is completed, , basically, then go to learning step 3 (third mode).

すなわち、本実施形態における電子辞書10では、学習形態が異なる学習ステップ1~3(第1~第3モード)を段階的に実行することで、外国語の言語の学習を効果的に実行できるようにしている。 That is, in the electronic dictionary 10 according to the present embodiment, learning steps 1 to 3 (first to third modes) with different learning modes are performed step by step, so that foreign language learning can be effectively performed. I have to.

なお、学習ステップ1が終了した後、CPU11は、例えば、学習ステップ2への移行確認画面を表示させる。CPU11は、移行確認画面において、学習者によって移行確認の指示が入力された場合には(ステップA5、Yes)、学習ステップ2へ移行する(ステップA5)。一方、移行確認画面において、学習者によって移行確認の指示が入力されない場合には(ステップA5、No)、CPU11は、再度、学習ステップ1を実行する。すなわち、学習者の要求に応じて、学習ステップ1を繰り返して実行することができる。 After the learning step 1 ends, the CPU 11 displays, for example, a confirmation screen for shifting to the learning step 2 . When the learner inputs a transfer confirmation instruction on the transfer confirmation screen (step A5, Yes), the CPU 11 proceeds to learning step 2 (step A5). On the other hand, if the learner does not input an instruction to confirm the transition on the transition confirmation screen (step A5, No), the CPU 11 executes the learning step 1 again. That is, the learning step 1 can be repeatedly executed according to the learner's request.

同様にして、学習ステップ2が終了した後、CPU11は、学習ステップ3への移行確認画面を表示させる。CPU11は、移行確認画面において、学習者によって移行確認の指示が入力された場合には(ステップA8、Yes)、学習ステップ3へ移行する(ステップA10)。一方、移行確認画面において、学習者によって移行確認の指示が入力されない場合には(ステップA8、No)、CPU11は、再度、学習ステップ2を実行する。あるいは、移行確認画面において、学習者によって学習ステップ1への移行指示が入力された場合には、CPU11は、再度、学習ステップ1を実行するようにしても良い。 Similarly, after the learning step 2 ends, the CPU 11 displays a confirmation screen for shifting to the learning step 3 . When the learner inputs a transfer confirmation instruction on the transfer confirmation screen (step A8, Yes), the CPU 11 proceeds to learning step 3 (step A10). On the other hand, in the transfer confirmation screen, if the learner does not input a transfer confirmation instruction (step A8, No), the CPU 11 executes the learning step 2 again. Alternatively, when the learner inputs an instruction to shift to learning step 1 on the shift confirmation screen, the CPU 11 may execute learning step 1 again.

このようにして、本実施形態における電子辞書10では、基本的に、学習形態が異なる学習ステップ1~3(第1~第3モード)を段階的に実行するが、学習者の要求に応じて、同じ学習ステップを繰り返して実行できるようにして、各学習ステップ1,2における学習を確実にできるようにする。 Thus, in the electronic dictionary 10 of the present embodiment, learning steps 1 to 3 (first to third modes) with different learning modes are basically executed step by step. , the same learning step can be repeatedly executed, and learning in each learning step 1, 2 can be reliably performed.

また、前述した説明では、学習ステップ1~3(第1~第3モード)を段階的に実行するとしているが、学習者による設定操作に応じて任意の学習ステップ1~3を個別に実行したり、任意の学習ステップ(モード)を組合せて実行したりできるようにしても良い。例えば、図6に示す第1モード(ステップA3,A4,A6,A9)を省略して、第2モードと第3モードのみを実行したり、第3モード(ステップA8,A10)を省略して、第1モードと第2モードのみを実行したりするようにしても良い。 Further, in the above description, the learning steps 1 to 3 (first to third modes) are executed step by step. Alternatively, arbitrary learning steps (modes) may be combined and executed. For example, the first mode (steps A3, A4, A6, A9) shown in FIG. , only the first mode and the second mode may be executed.

次に、学習ステップ1~3(第1~第3モード)の具体例について説明する。 Next, specific examples of learning steps 1 to 3 (first to third modes) will be described.

まず、学習ステップ1(第1モード)について、図7を示すフローチャートを参照しながら説明する。 First, learning step 1 (first mode) will be described with reference to the flowchart shown in FIG.

CPU11は、学習ステップ1を開始すると、学習対象として選択した学習コンテンツのテキストをもとに、第1モード用の学習画面に外国語の文章をタッチパネル式表示部17に表示させる。 When learning step 1 is started, the CPU 11 causes the touch panel display unit 17 to display foreign language sentences on the learning screen for the first mode based on the text of the learning content selected as the learning object.

図10は、本実施形態における第1モード用の学習画面DS1の一例を示す図である。図10に示すように、学習対象とする外国語の文章(テキスト)が表示される。 FIG. 10 is a diagram showing an example of the learning screen DS1 for the first mode in this embodiment. As shown in FIG. 10, a foreign language sentence (text) to be learned is displayed.

CPU11は、表示した文章(テキスト)に対応する、学習コンテンツに含まれるネイティブスピーカが音読した見本音声のデータをもとに、音声出力部19から見本音声GSの出力を開始すると同時に、見本音声の再生速度(再生タイミング)に合わせたテキストに対するマーカ(ガイドマーカ)の表示を開始する(ステップB1)。 The CPU 11 starts outputting the sample voice GS from the voice output unit 19 based on the data of the sample voice read aloud by the native speaker included in the learning content corresponding to the displayed sentence (text), and at the same time, starts the sample voice. Display of a marker (guide marker) corresponding to the text in accordance with the reproduction speed (reproduction timing) is started (step B1).

なお、見本音声の再生タイミングは、学習設定データ12fにおいて見本音声の速度が設定されている場合には、学習設定データ12fに設定された再生速度に応じて制御する。この場合、学習ステップ1~3(第1~第3モード)の全てにおいて同じ再生速度を用いる。 Note that when the speed of the sample voice is set in the learning setting data 12f, the playback timing of the sample voice is controlled according to the playback speed set in the learning setting data 12f. In this case, the same playback speed is used in all learning steps 1 to 3 (first to third modes).

その後、CPU11は、見本音声の再生が終了するまで(ステップB2、No)、見本音声GSを再生して音声出力部19から出力させると同時に、見本音声が読み上げているテキスト中の位置を明示するように、見本音声の再生タイミングに合わせてマーカの表示位置を変更するように表示を制御する(ステップB1)。 After that, the CPU 11 reproduces the sample voice GS and outputs it from the voice output unit 19 until the reproduction of the sample voice is completed (step B2, No), and at the same time clearly indicates the position in the text read out by the sample voice. As shown, the display is controlled so as to change the display position of the marker in accordance with the reproduction timing of the sample voice (step B1).

図10に示す学習画面DS1では、見本音声が読み上げたテキスト範囲を、他のテキストの表示と異なる表示形態に表示することでマーカGMとしている。図10に示す例では、見本音声が読み上げたテキスト範囲の背景色を他と異なる色に表示することでマーカGMとしている。これにより、マーカGMの識別を容易にしている。 In the learning screen DS1 shown in FIG. 10, the text range read out by the sample voice is displayed as a marker GM by displaying it in a display form different from the display of other texts. In the example shown in FIG. 10, the background color of the range of text read out by the sample voice is displayed in a different color from the others to make the marker GM. This facilitates identification of the marker GM.

図11は、本実施形態における学習画面DS1において、見本音声の再生と共に変化するマーカGMの一例を示している。図11(A)に示すように、見本音声が「A certain man」まで再生されると、「A certain man」までマーカGM1が表示される。 FIG. 11 shows an example of the marker GM that changes along with the reproduction of the sample voice on the learning screen DS1 in this embodiment. As shown in FIG. 11A, when the sample voice is reproduced up to "A certain man", the marker GM1 is displayed up to "A certain man".

引き続き、見本音声が「…several Daughters」まで再生されると、図11(B)に示すように、「…several Daughters」までマーカGM2が表示され、見本音声が「…were always」まで再生されると、図11(C)に示すように、「…were always」までマーカGM3が表示される。 Subsequently, when the sample voice is played up to "...several Daughters", the marker GM2 is displayed up to "...several Daughters", and the sample voice is played up to "...were always", as shown in FIG. 11(B). Then, as shown in FIG. 11C, the marker GM3 is displayed up to "...were always".

CPU11は、見本音声の再生が終了すると(ステップB2、Yes)、学習管理データ12eの学習対象とする学習コンテンツについて、学習進捗情報を学習ステップ1の完了を示すように更新する(ステップB3)。 When the reproduction of the sample voice is completed (step B2, Yes), the CPU 11 updates the learning progress information of the learning content to be learned in the learning management data 12e so as to indicate the completion of learning step 1 (step B3).

このようして、本実施形態における電子辞書10の学習ステップ1(第1モード)では、学習コンテンツのテキストについて、ネイティブスピーカによる見本音声を聞きながら、テキストに対して見本音声の読み上げ位置をマーカGMにより確認することができる。従って、ネイティブスピーカによる見本音声の聞き取りを学習し、また学習コンテンツのテキストに対するネイティブスピーカによる音読時間(音読速度)、メリハリ、なめらかさなど、ネイティブスピーカと同様な音読に必要な学習を効果的に実施することができる。 In this way, in the learning step 1 (first mode) of the electronic dictionary 10 of the present embodiment, while listening to the sample voice of the native speaker for the text of the learning content, mark the reading position of the sample voice with respect to the text with the marker GM. can be confirmed by Therefore, learn how to listen to a sample voice by a native speaker, and learn the reading time (reading speed), sharpness, smoothness, etc. of the text of the learning content by a native speaker, which is necessary for reading aloud like a native speaker. can do.

次に、学習ステップ2(第2モード)について、図8を示すフローチャートを参照しながら説明する。 Next, learning step 2 (second mode) will be described with reference to the flowchart shown in FIG.

CPU11は、学習ステップ2を開始すると、学習対象として選択した学習コンテンツのテキストをもとに、第2モード用の学習画面に外国語の文章をタッチパネル式表示部17に表示させる。 When the learning step 2 is started, the CPU 11 causes the touch panel display section 17 to display foreign language sentences on the learning screen for the second mode based on the text of the learning content selected as the learning object.

図12は、本実施形態における第2モード用の学習画面DS2の一例を示す図である。図12に示すように、学習画面DS1と同様に、学習対象とする外国語の文章(テキスト)が表示される。 FIG. 12 is a diagram showing an example of the learning screen DS2 for the second mode in this embodiment. As shown in FIG. 12, foreign language sentences (texts) to be learned are displayed in the same manner as the learning screen DS1.

CPU11は、表示した文章(テキスト)に対応する、学習コンテンツに含まれるネイティブスピーカが音読した見本音声のデータをもとに、見本音声の再生タイミングに合わせたテキストに対するマーカGM(ガイドマーカ)の表示を開始する(ステップC1)。すなわち、学習ステップ2では、見本音声を音声出力部19から出力させずに、テキストに対するネイティブスピーカが音読した場合の読み上げ位置をマーカGMにより明示する。 The CPU 11 displays a marker GM (guide marker) for the text corresponding to the displayed sentence (text), based on the data of the sample voice read aloud by the native speaker included in the learning content, in accordance with the reproduction timing of the sample voice. is started (step C1). That is, in the learning step 2, without outputting the sample voice from the voice output unit 19, the reading position of the text read aloud by the native speaker is indicated by the marker GM.

その後、CPU11は、見本音声の再生タイミングに応じたマーカGMの表示がテキストの最後に到達するまで(ステップC2、No)、ネイティブスピーカがテキストを読み上げた場合のテキスト中の読み上げ位置を明示するように、見本音声の再生タイミングに合わせてマーカGMの表示位置を変更するように表示を制御する(ステップC1)。マーカGMの表示は、学習ステップ1(第1モード)と同様に実行されるものとして説明を省略する。 After that, until the display of the marker GM corresponding to the playback timing of the sample voice reaches the end of the text (step C2, No), the CPU 11 clearly indicates the reading position in the text when the native speaker reads the text. First, the display is controlled so as to change the display position of the marker GM in accordance with the reproduction timing of the sample voice (step C1). The display of the marker GM is assumed to be executed in the same manner as in learning step 1 (first mode), and the description thereof is omitted.

学習者は、学習コンテンツのテキストにおいて表示位置が移動するマーカGMに応じて、マーカGMが示すテキストを読み上げることで、ネイティブスピーカと同様の音読時間(音読速度)によるテキストの音読を練習することができる。学習者は、音読時間(音読速度)だけでなく、学習ステップ1(第1モード)における学習の成果を用いて、メリハリ、なめらかさなど、ネイティブスピーカと同様な音読の学習を効果的に実施することができる。 The learner reads aloud the text indicated by the marker GM according to the marker GM whose display position moves in the text of the learning content, thereby practicing reading the text aloud at the same reading time (reading speed) as a native speaker. can. The learner uses not only the reading time (reading speed) but also the results of learning step 1 (first mode) to effectively learn to read aloud like a native speaker, such as sharpness and smoothness. be able to.

CPU11は、見本音声の再生タイミングに応じたマーカGMの表示がテキストの最後に到達すると(ステップC2、Yes)、学習管理データ12eの学習対象とする学習コンテンツについて、学習進捗情報を学習ステップ2の完了を示すように更新する(ステップC3)。 When the display of the marker GM corresponding to the reproduction timing of the sample voice reaches the end of the text (step C2, Yes), the CPU 11 updates the learning progress information of the learning content to be learned in the learning management data 12e in the learning step 2. Update to indicate completion (step C3).

このようにして、本実施形態における電子辞書10の学習ステップ2(第2モード)では、学習コンテンツのテキストについて、ネイティブスピーカによる見本音声の再生タイミングに応じた読み上げ位置をマーカGMにより確認することができる。従って、学習コンテンツのテキストに対するネイティブスピーカと同様の音読を効果的に学習(練習)することができる。 In this manner, in the learning step 2 (second mode) of the electronic dictionary 10 of the present embodiment, it is possible to check the read-out position of the text of the learning content according to the reproduction timing of the sample voice by the native speaker using the marker GM. can. Therefore, it is possible to effectively learn (practice) how to read the text of the learning content aloud like a native speaker.

次に、学習ステップ3(第3モード)について、図9を示すフローチャートを参照しながら説明する。 Next, learning step 3 (third mode) will be described with reference to the flowchart shown in FIG.

CPU11は、学習ステップ3を開始すると、学習対象として選択した学習コンテンツのテキストをもとに、第3モード用の学習画面に外国語の文章をタッチパネル式表示部17に表示させる。 When the learning step 3 is started, the CPU 11 causes the touch panel display section 17 to display foreign language sentences on the learning screen for the third mode based on the text of the learning content selected as the learning object.

図13は、本実施形態における第3モード用の学習画面DS3の一例を示す図である。図13に示すように、学習画面DS1と同様に、学習対象とする外国語の文章(テキスト)が表示される。 FIG. 13 is a diagram showing an example of the learning screen DS3 for the third mode in this embodiment. As shown in FIG. 13, similar to the learning screen DS1, foreign language sentences (text) to be learned are displayed.

まず、CPU11は、学習設定データ12fを参照して、見本音声の再生位置を表す第1マーカ(ガイドマーカ)、音読音声の音読位置を表す第2マーカ(ユーザマーカ)のそれぞれについて表示するか否か(オン/オフ)を判別する(ステップD1)。なお、以下の説明では、第1マーカ(ガイドマーカ)について表示する場合と表示しない場合について説明する。 First, the CPU 11 refers to the learning setting data 12f to determine whether or not to display a first marker (guide marker) representing the playback position of the sample voice and a second marker (user marker) representing the reading position of the reading voice. (on/off) is determined (step D1). In the following description, the case where the first marker (guide marker) is displayed and the case where it is not displayed will be described.

CPU11は、学習設定データ12fにおいて、第1マーカGM(ガイドマーカ)を表示することが設定されている場合(ステップD2、Yes)、学習者によるテキストの音読音声を入力するため、音声入力部18からの音声入力を開始すると共に(ステップD3)、見本音声のデータをもとに、見本音声の再生タイミングに合わせたテキストに対する第1マーカGMの表示を開始する(ステップD4)。第1マーカGMの表示は、学習ステップ2(第2モード)と同様に実行する。また、見本音声についても、学習ステップ2(第2モード)と同様に出力させない。 When the display of the first marker GM (guide marker) is set in the learning setting data 12f (step D2, Yes), the CPU 11 inputs the reading voice of the text by the learner. (step D3), and based on the data of the sample voice, display of the first marker GM for the text is started in accordance with the reproduction timing of the sample voice (step D4). Display of the first marker GM is executed in the same manner as in learning step 2 (second mode). Also, sample speech is not output as in learning step 2 (second mode).

また、CPU11は、音声入力部18から入力される学習者によるテキストの音読音声を後述する評価のために録音すると共に、発話された内容を検出してテキストの音読位置を判別する(ステップD5)。CPU11は、音読音声について判別されたテキストの音読位置に応じて、テキストに対する第2マーカUM(ユーザマーカ)の表示を開始する(ステップD6)。 In addition, the CPU 11 records the reading voice of the text input by the learner from the voice input unit 18 for evaluation to be described later, detects the uttered content, and determines the reading position of the text (step D5). . The CPU 11 starts displaying a second marker UM (user marker) for the text according to the reading position of the text determined for the reading voice (step D6).

その後、CPU11は、見本音声の再生タイミングに応じた第1マーカGMの表示がテキストの最後に到達(見本音声の再生時間が経過)するまで(ステップD7、No)、ネイティブスピーカがテキストを読み上げた場合のテキスト中の読み上げ位置を明示するように、見本音声の再生タイミングに合わせて第1マーカGMの表示位置を変更するように表示を制御する(ステップD4)。 Thereafter, the CPU 11 waits until the display of the first marker GM corresponding to the playback timing of the sample voice reaches the end of the text (the playback time of the sample voice has elapsed) (step D7, No), until the native speaker reads the text. The display is controlled so as to change the display position of the first marker GM in accordance with the reproduction timing of the sample voice so as to clearly indicate the reading position in the text (step D4).

また、CPU11は、音声入力部18から入力される学習者によるテキストの音読音声に応じて、テキスト中の音読位置を明示するように、第2マーカUMの表示位置を変更するように表示を制御する(ステップD5,D6)。 In addition, the CPU 11 controls the display so as to clearly indicate the reading position in the text and to change the display position of the second marker UM according to the reading voice of the text by the learner input from the voice input unit 18. (steps D5 and D6).

図13に示す学習画面DS3では、見本音声の再生タイミングに応じて表示される第1マーカGMと、学習者による音読音声USに応じて表示される第2マーカUMが、学習コンテンツのテキストに対して表示されている。第1マーカGMと第2マーカUMとは異なる表示形態によって表示し、学習者が容易に識別可能としている。例えば、第1マーカGMは、第1/第2モードと同じ表示形態により表示して、学習者に見本音声に対応するマーカであることを認識させてする。第2マーカUMは、第1マーカGMと重複しないように、テキストに対するアンダーラインによって表示している。 In the learning screen DS3 shown in FIG. 13, the first marker GM displayed according to the playback timing of the sample voice and the second marker UM displayed according to the reading voice US by the learner are displayed relative to the text of the learning content. are displayed. The first marker GM and the second marker UM are displayed in different display forms so that the learner can easily identify them. For example, the first marker GM is displayed in the same display form as in the first/second modes so that the learner can recognize that it is the marker corresponding to the sample speech. The second marker UM is displayed by underlining the text so as not to overlap with the first marker GM.

図14は、本実施形態における学習画面DS3において変化する第1マーカGMと第2マーカUMの一例を示している。図14(A)では、見本音声に対応する第1マーカGM1が「A certain man」まで表示された時、学習者の音読音声が「A certain man」の位置まで発声したことが判別されたことにより、第2マーカUM1が「A certain man」まで音読されたことを表すように表示が変更される。 FIG. 14 shows an example of the first marker GM and the second marker UM that change on the learning screen DS3 in this embodiment. In FIG. 14(A), when the first marker GM1 corresponding to the sample speech was displayed up to "A certain man", it was determined that the learner's reading speech was uttered up to the position of "A certain man". changes the display to indicate that the second marker UM1 has been read aloud up to "A certain man".

引き続き、見本音声の再生タイミングに応じて「…several Daughters」の位置まで第1マーカGM2の表示が変更された時、図14(B)に示すように、学習者の音読音声が「…who were」の位置まで発声したことが判別されたことにより、第2マーカUM2が「…who were」まで音読されたことを表すように表示が変更される。さらに、見本音声の再生タイミングに応じて「…were always」の位置まで第1マーカGM3の表示が変更された時、図14(C)に示すように、学習者の音読音声が「…always quarrelling」の位置まで発声したことが判別されたことにより、第2マーカUM3が「…always quarrelling」まで音読されたことを表すように表示が変更される。 Subsequently, when the display of the first marker GM2 is changed to the position of "...several Daughters" according to the reproduction timing of the sample voice, as shown in FIG. , the display is changed so that the second marker UM2 has been read aloud up to "...who were". Furthermore, when the display of the first marker GM3 is changed to the position of "...were always" according to the playback timing of the sample speech, as shown in FIG. , the display is changed to indicate that the second marker UM3 has been read aloud up to "...always quarrelling".

こうして、学習コンテンツのテキストに対して、見本音声の再生タイミングに応じて表示される第1マーカGMと同時に学習者のテキストを音読している位置を示す第2マーカUMを表示させることで、第1マーカGMと第2マーカUMとの表示位置の比較によって、学習者のテキストの音読が見本音声に対して、早い、適正、遅いを視覚的に容易に確認することができる。従って、学習者は、見本音声と同様な速度による音読を、テキストの音読中に調整することができる。 In this way, the second marker UM indicating the position where the learner is reading the text aloud is displayed at the same time as the first marker GM that is displayed according to the playback timing of the sample voice for the text of the learning content. By comparing the display positions of the first marker GM and the second marker UM, it is possible to easily visually confirm whether the learner's reading of the text is fast, appropriate, or slow relative to the sample voice. Therefore, the learner can adjust reading aloud at a speed similar to the sample speech while reading the text aloud.

CPU11は、音読音声USの入力位置に応じたマーカUMの表示がテキストの最後に到達(学習者がテキストを最後まで音読)すると(ステップD7、Yes)、学習者による音読音声について見本音声との比較による評価を実行する(ステップD12)。なお、音読音声についての評価については後述する。 When the display of the marker UM corresponding to the input position of the reading voice US reaches the end of the text (the learner reads the text to the end) (step D7, Yes), the CPU 11 compares the reading voice of the learner with the sample voice. Evaluation by comparison is performed (step D12). The evaluation of the reading voice will be described later.

一方、CPU11は、学習設定データ12fにおいて、第1マーカGM(ガイドマーカ)を表示しないことが設定されている場合(ステップD2、No)、学習者によるテキストの音読音声を入力するため、音声入力部18からの音声入力を開始する(ステップD8)。 On the other hand, when it is set in the learning setting data 12f that the first marker GM (guide marker) is not displayed (step D2, No), the CPU 11 inputs voice reading of the text by the learner. Voice input from the unit 18 is started (step D8).

また、CPU11は、音声入力部18から入力される学習者によるテキストの音読音声を後述する評価のために記憶すると共に、発話された内容を検出してテキストの音読位置を判別する(ステップD9)。CPU11は、音読音声について判別されたテキストの音読位置に応じて、テキストに対する第2マーカUM(ユーザマーカ)の表示を開始する(ステップD10)。 In addition, the CPU 11 stores the reading voice of the text input by the learner from the voice input unit 18 for evaluation to be described later, and detects the content of the utterance to determine the reading position of the text (step D9). . The CPU 11 starts displaying a second marker UM (user marker) for the text according to the reading position of the text determined for the reading voice (step D10).

その後、CPU11は、学習者の音読音声USの入力が終了(学習者がテキストを最後まで音読)するまで(ステップD11、No)、音声入力部18から入力される学習者によるテキストの音読音声に応じて、テキスト中の音読位置を明示するように、第2マーカUMの表示位置を変更するように表示を制御する(ステップD9,D10)。 After that, until the input of the learner's reading voice US ends (the learner reads the text aloud to the end) (step D11, No), the CPU 11 continues to read the text by the learner input from the voice input unit 18. Accordingly, the display is controlled so as to change the display position of the second marker UM so as to clearly indicate the reading position in the text (steps D9 and D10).

この場合、図13に示す学習画面DS3において、第1マーカGMが表示されず、第2マーカUMについてのみ前述と同様にして表示される。詳細な説明については省略する。 In this case, the first marker GM is not displayed on the learning screen DS3 shown in FIG. 13, and only the second marker UM is displayed in the same manner as described above. Detailed description is omitted.

こうして、学習コンテンツのテキストに対して、第1マーカGMを表示させないことで、見本音声と同様にして音読するための難度を上げて、音読に対する評価結果を得ることができる。すなわち、難しい条件での音読の評価結果が得られるようにして、学習の成果を確認することができる。 In this way, by not displaying the first marker GM for the text of the learning content, it is possible to increase the difficulty of reading aloud in the same way as the sample speech, and obtain an evaluation result for the reading aloud. That is, it is possible to check the results of learning by obtaining evaluation results of reading aloud under difficult conditions.

CPU11は、音読音声USの入力が終了すると(ステップD11、Yes)、学習者による音読音声について見本音声との比較による評価を実行する(ステップD12)。なお、音読音声についての評価については後述する。 When the input of the reading voice US is completed (step D11, Yes), the CPU 11 evaluates the reading voice of the learner by comparing it with the sample voice (step D12). The evaluation of the reading voice will be described later.

なお、学習設定データ12fにおいて、第2マーカUMを表示しない設定がされている場合には、前述した説明において、第2マーカUMを表示するための処理が省略される。 Note that if the learning setting data 12f is set not to display the second marker UM, the processing for displaying the second marker UM is omitted in the above description.

なお、前述した説明では、第1マーカGMの背景色を他と異なる色に表示し、第2マーカUMをアンダーラインにより表示するとしているが、テキストに対する位置を明示できる表示形態であれば、その他の表示形態を用いても良い。例えば、文字色を変化させる、文字フォントを変化させる、文字を消去する、などであっても良い。また、テキスト(文字あるいは背景色)の上半分を、第1マーカGMを表す第1色、テキストの下半分を、第2マーカUMを表す第1色と異なる第2色を用いるなどしても良い。 In the above description, the background color of the first marker GM is displayed in a color different from the others, and the second marker UM is displayed with an underline. may be used. For example, the character color may be changed, the character font may be changed, or the character may be erased. Alternatively, the upper half of the text (character or background color) may be in the first color representing the first marker GM, and the lower half of the text may be in the second color different from the first color representing the second marker UM. good.

また、前述した第1マーカGMと第2マーカUMでは、テキストに対して範囲指定しているが、見本音声(音読音声)の対象としている単語あるいは文字の位置のみを示すマーク(あるいは図形)などを表示するようにしても良い。 In addition, the first marker GM and the second marker UM described above specify the range of the text, but a mark (or figure) indicating only the position of the word or character that is the target of the sample voice (reading voice), etc. may be displayed.

また、図11及び図14では、第1マーカGM及び第2マーカUMを単語単位で表示位置が変化するように示しているが、文字単位で表示位置を示すようにしても良い。 Also, in FIGS. 11 and 14, the display positions of the first marker GM and the second marker UM are shown to change on a word-by-word basis, but the display positions may be shown on a character-by-character basis.

次に、学習者による音読音声についての評価について説明する。 Next, the evaluation of the read aloud voice by the learner will be described.

学習コンテンツには、テキストをネイティブスピーカが音読した見本音声と共に、見本音声を基準にして学習者による音読音声を評価するための評価基準データが含まれる。評価基準データの作成は、次のように実行される。例えば、見本音声を音声データ化し、一定の時間で分割したフレーム毎にパワー、周波数などの物理量を算出し、これらの物理量の時間的推移を用いて、単語あるいは文を発話した区間、子音/母音、子音/母音の強さ、強弱変化などを判定する。これらの判定結果に基づいて、ネイティブスピーカが音読した見本音声を数値化して評価基準データとする。 The learning content includes a sample voice obtained by reading a text aloud by a native speaker, and evaluation criteria data for evaluating the learner's reading voice based on the sample voice. Creation of evaluation criteria data is executed as follows. For example, a sample speech is converted into speech data, and physical quantities such as power and frequency are calculated for each frame divided by a fixed time. , the strength of consonants/vowels, changes in dynamics, and the like. Based on these determination results, the sample speech read aloud by the native speaker is digitized and used as evaluation reference data.

CPU11は、学習ステップ3(第3モード)において、学習者がテキストを音読することにより録音された音読音声について、前述した見本音声と同様の処理を実行して、音読音声を数値化して評価対象データを生成する。 In learning step 3 (third mode), the CPU 11 executes the same processing as the sample voice described above for the reading voice recorded by the learner reading the text aloud, digitizes the reading voice, and evaluates it. Generate data.

CPU11は、見本音声の評価基準データと音読音声の評価対象データとを比較して、複数のパラメータについて点数化して、さらに複数のパラメータについての点数を総合して、音読音声に対する総合評価を算出する。複数のパラメータには、例えば、音読時間、子音判定(子音強さ)、メリハリ、なめらかさ、などがある。 The CPU 11 compares the evaluation reference data of the sample speech with the evaluation target data of the read-aloud speech, assigns scores for a plurality of parameters, and further integrates the scores for the plurality of parameters to calculate a comprehensive evaluation of the read-aloud speech. . The plurality of parameters include, for example, reading time, consonant determination (consonant strength), sharpness, smoothness, and the like.

CPU11は、基本的に、評価基準データと評価対象データとが近いほど高い点数をつける。また、音読時間については、見本音声と音読音声の音読時間が近いほど高い点数としても良いし、見本音声より音読音声の方が短い場合に高い点数となるようにしても良い。 Basically, the CPU 11 assigns a higher score as the evaluation reference data and the evaluation target data are closer. As for the read-aloud time, the closer the reading time of the sample voice and the read-aloud voice is, the higher the score may be.

さらに、音読音声に対する評価は、テキスト全体の文章単位でするだけでなく、文単位、単語単位で実行して、それぞれの評価値を求めても良い。この場合、テキストに対して評価対象とする部分的なテキスト範囲を学習者が指定して、テキスト範囲についての評価値が出力されるようにしても良い。さらに、テキスト全体について音読せずに、テキストの一部のみについて音読することで評価されるようにしても良い。例えば、第1マーカGMを表示させている場合に、評価対象としたい文に第1マーカGMが到達したタイミングで音読を開始する。CPU11は、学習者による音読により入力された音読音声について、文単位での評価を実行する。これにより、学習コンテンツのテキストが長い場合であっても、途中で音読を中断しても評価結果を出力する、あるいはテキスト中の集中して学習したい文を選択して評価結果を出力するといったことが可能となり、学習を効率的にすることができる。 Furthermore, the evaluation of the reading voice may be performed not only on a sentence-by-sentence basis of the entire text, but also on a sentence-by-sentence or word-by-word basis to obtain an evaluation value for each. In this case, the learner may designate a partial text range to be evaluated for the text, and the evaluation value for the text range may be output. Furthermore, evaluation may be performed by reading aloud only a part of the text instead of reading the entire text aloud. For example, when the first marker GM is displayed, reading aloud is started at the timing when the first marker GM reaches a sentence to be evaluated. The CPU 11 evaluates the read-aloud voice input by the learner in units of sentences. As a result, even if the text of the learning content is long, the evaluation result can be output even if the reading is interrupted in the middle, or the evaluation result can be output by selecting the sentence in the text that you want to study intensively. is possible, and learning can be made more efficient.

音読音声に対する評価が完了すると、CPU11は、学習管理データ12eの学習対象とする学習コンテンツについて、学習進捗情報を学習ステップ3の完了を示すように更新し(ステップD13)、音読音声に対する評価結果を表す評価結果画面をタッチパネル式表示部17に表示させる(ステップD14)。 When the evaluation of the reading voice is completed, the CPU 11 updates the learning progress information of the learning content to be learned in the learning management data 12e so as to indicate the completion of the learning step 3 (step D13), and updates the evaluation result of the reading voice. This evaluation result screen is displayed on the touch panel type display unit 17 (step D14).

図15は、本実施形態における評価結果画面DS4の一例を示す図である。 FIG. 15 is a diagram showing an example of the evaluation result screen DS4 in this embodiment.

図15に示す評価結果画面DS4では、例えば総合評価D41と共に、複数のパラメータ(音読時間、子音判定(子音強さ)、メリハリ、なめらかさ)のそれぞれについてのパラメータ点数D42、パラメータ点数D42をグラフ化したパラメータ点数グラフD43が表示される。 On the evaluation result screen DS4 shown in FIG. 15, for example, together with the overall evaluation D41, the parameter scores D42 and the parameter scores D42 for each of a plurality of parameters (reading time, consonant judgment (consonant strength), sharpness, smoothness) are graphed. A parameter score graph D43 is displayed.

評価結果画面DS4において総合評価D41、パラメータ点数D42を確認することで、学習ステップ1~3(第1モード~第3モード)を経て実行した1つの学習コンテンツに対する学習の成果を容易に把握することができる。 By confirming the comprehensive evaluation D41 and the parameter score D42 on the evaluation result screen DS4, it is possible to easily grasp the result of learning for one learning content executed through learning steps 1 to 3 (first mode to third mode). can be done.

評価結果画面DS4には、例えば「音声再生」ボタンD44、「再学習」ボタンD45、「終了」ボタンD46が設けられている。 The evaluation result screen DS4 is provided with, for example, a "sound reproduction" button D44, a "relearn" button D45, and an "end" button D46.

CPU11は、「音声再生」ボタンD44を選択する操作を検出すると(ステップD15、Yes)、例えば見本音声あるいは録音された音読音声についての音声再生処理を実行する(ステップD16)。例えば、見本音声あるいは音読音声を学習者により任意に選択させて、CPU11は、見本音声あるいは音読音声を音声出力部19から出力させる。この時、CPU11は、音読音声を入力した場合と同じ、図13に示す学習画面DS3を表示させて、第1マーカGMと第2マーカUMの変化を参照できるようにする。これにより、学習者は、録音された音読音声を聞きながら、音読した時の状況(音読が早い/遅いなど)を確認することができる。また、第1マーカGMと第2マーカUMの変化を見比べることで、なめらかさの評価も視覚的に確認することができる。 When the CPU 11 detects an operation to select the "sound reproduction" button D44 (step D15, Yes), the CPU 11 executes sound reproduction processing for sample speech or recorded reading speech (step D16). For example, the learner arbitrarily selects a sample voice or reading voice, and the CPU 11 outputs the sample voice or reading voice from the voice output unit 19 . At this time, the CPU 11 displays the learning screen DS3 shown in FIG. 13, which is the same as when the reading voice is input, so that the change in the first marker GM and the second marker UM can be referred to. As a result, the learner can check the situation when reading aloud (reading aloud quickly/slowly, etc.) while listening to the recorded reading voice. Also, by comparing changes in the first marker GM and the second marker UM, it is possible to visually confirm the evaluation of smoothness.

また、CPU11は、「再学習」ボタンD45を選択する操作を検出すると(ステップD17、Yes)、ステップD1の処理に戻り、前述した同様の処理を実行する。 Further, when the CPU 11 detects an operation to select the "relearning" button D45 (step D17, Yes), the CPU 11 returns to the process of step D1 and executes the same process as described above.

また、CPU11は、「終了」ボタンD46を選択する操作を検出すると(ステップD18、Yes)、学習ステップ3(第3モード)の処理を終了する。 When the CPU 11 detects an operation to select the "end" button D46 (step D18, Yes), the CPU 11 ends the processing of learning step 3 (third mode).

このようにして、本実施形態における電子辞書10の学習ステップ3(第3モード)では、テキストに対する見本音声を基準とした学習者による音読音声について評価結果が得られるので、テキストの読み上げ速度や発音の正誤を客観的に認識して、言語学習にフィードバックすることが容易となる。 In this way, in the learning step 3 (third mode) of the electronic dictionary 10 in the present embodiment, the evaluation result of the learner's reading voice based on the sample voice for the text is obtained, so the reading speed and pronunciation of the text can be obtained. It becomes easy to objectively recognize the correctness of a sentence and feed it back to language learning.

本実施形態における電子辞書10では、前述した学習ステップ1~3(第1モード~第3モード)を有する学習処理を実行することができるので、効果的に言語学習することが可能となる。 In the electronic dictionary 10 of this embodiment, the learning process having the learning steps 1 to 3 (first mode to third mode) described above can be executed, so that language learning can be performed effectively.

また、学習者に応じて、例えば学習ステップ2,3(第2モードと第3モード)、あるいは学習ステップ1,2(第1モードと第2モード)を順番に実行することで、学習者に合わせた効果的な言語学習が可能となる。 Also, depending on the learner, for example, by sequentially executing learning steps 2 and 3 (second mode and third mode) or learning steps 1 and 2 (first mode and second mode), Combined and effective language learning becomes possible.

図16は、本発明の実施形態に係る学習支援システムの模式図である。本実施形態の学習支援システム1は、サーバ20をさらに備えている。図16では、サーバ20の電子回路の構成を示す機能ブロック図を示している。 FIG. 16 is a schematic diagram of a learning support system according to an embodiment of the present invention. The learning support system 1 of this embodiment further includes a server 20 . FIG. 16 shows a functional block diagram showing the configuration of the electronic circuit of the server 20. As shown in FIG.

サーバ20は、各種の記録媒体に記録されたプログラム、又は、伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータの構成を有し、その電子回路には、CPU(central processing unit)21が備えられる。 The server 20 has a configuration of a computer in which programs recorded on various recording media or transmitted programs are read and the operation is controlled by the read programs. processing unit) 21 is provided.

CPU21は、サーバ20の全体を制御する制御部として機能する。CPU21は、メモリ22内に予め記憶された制御プログラム、あるいはROMカードなどの記録媒体23から記録媒体読取部24を介してメモリ22に読み込まれた制御プログラム、あるいはインターネット等のネットワーク(図示せず)を通じて、外部装置(サーバ等)からダウンロードされてメモリ22に読み込まれた制御プログラムに応じて、回路各部の動作を制御する。 The CPU 21 functions as a control unit that controls the server 20 as a whole. The CPU 21 receives a control program pre-stored in the memory 22, a control program read into the memory 22 from a recording medium 23 such as a ROM card via a recording medium reading unit 24, or a network such as the Internet (not shown). It controls the operation of each part of the circuit according to a control program downloaded from an external device (server or the like) and read into the memory 22 through the .

メモリ22に記憶される制御プログラムとしては、辞書制御プログラム22a、学習処理プログラム22bなどが含まれる。なお、図16に示すメモリ22に記憶されるプログラム及びデータは、図1に示す同じ名称のプログラム及びデータと実質同じものとして説明を省略する。 Control programs stored in the memory 22 include a dictionary control program 22a, a learning processing program 22b, and the like. Note that the programs and data stored in the memory 22 shown in FIG. 16 are substantially the same as the programs and data with the same names shown in FIG. 1, and description thereof will be omitted.

前述した説明では、電子辞書10において学習プログラム12bに基づく学習処理を実行しているが、サーバ20において学習プログラム22bに基づく学習処理を実行させても良い。この場合、サーバ20に実装されたCPU21(制御部)が、前述した学習プログラム12bに基づく学習処理と同様の処理を実行し、ネットワークNを通じて処理結果を電子機器(電子辞書10など)に送信して、前述したような画面表示(DS1~DS4など)や音声出力をさせる。 In the above description, the electronic dictionary 10 executes the learning process based on the learning program 12b, but the server 20 may execute the learning process based on the learning program 22b. In this case, the CPU 21 (control unit) mounted on the server 20 executes the same processing as the learning processing based on the learning program 12b described above, and transmits the processing result to the electronic device (such as the electronic dictionary 10) through the network N. to display the screen (DS1 to DS4, etc.) and output audio as described above.

一般に、電子辞書10などの電子機器よりもサーバ20の処理能力の方が高いため、学習処理をサーバ20に実行させることで、電子辞書10の負荷を大幅に軽減して、処理全体の処理効率を向上させることができる。また、サーバ20には大量の学習コンテンツデータを蓄積することができ、多数の学習者に対して多種の学習コンテンツを提供することができる。 In general, the processing capacity of the server 20 is higher than that of an electronic device such as the electronic dictionary 10, so by having the server 20 execute the learning process, the load on the electronic dictionary 10 can be greatly reduced and the processing efficiency of the entire process can be improved. can be improved. In addition, the server 20 can store a large amount of learning content data, and can provide a large number of learners with a wide variety of learning content.

さらに、電子機器(電子辞書10など)とサーバ20とが協働するシステムによって、前述と同様の処理を実行するようにしても良い。この場合、電子機器(電子辞書10など)のCPU11(制御部)とサーバ20のCPU21(制御部)とが、それぞれ学習プログラムに基づいて協働することで、システムの制御部として機能する。電子機器とサーバ20は、それぞれに割り当てられた学習処理の一部を実行して、処理結果を電子機器において出力させる。 Furthermore, a system in which electronic devices (such as the electronic dictionary 10) and the server 20 work together may execute the same processing as described above. In this case, the CPU 11 (control unit) of the electronic device (such as the electronic dictionary 10) and the CPU 21 (control unit) of the server 20 cooperate with each other based on the learning program, thereby functioning as a control unit of the system. The electronic device and the server 20 execute a part of the learning process assigned to each, and cause the electronic device to output the processing result.

なお、実施形態において記載した手法、すなわちフローチャートに示す処理等の各手法は、コンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリ等の記録媒体に格納して配布することができる。そして、コンピュータは、外部記録媒体に記録されたプログラムを読み込み、このプログラムによって動作が制御されることにより、実施形態において説明した機能と同様の処理を実現することができる。 Note that the methods described in the embodiments, that is, each method such as the processing shown in the flowcharts, can be executed by a computer using memory cards (ROM cards, RAM cards, etc.), magnetic disks (flexible disks, hard disks, etc.). , an optical disk (CD-ROM, DVD, etc.), a semiconductor memory, or other recording medium for distribution. Then, the computer reads the program recorded in the external recording medium, and the operation is controlled by this program, thereby realizing processing similar to the functions described in the embodiments.

また、各手法を実現するためのプログラムのデータは、プログラムコードの形態としてネットワーク(インターネット)上を伝送させることができ、このネットワークに接続されたコンピュータからプログラムデータを取り込み、前述した実施形態と同様の機能を実現することもできる。 In addition, program data for realizing each method can be transmitted over a network (Internet) in the form of program code, and the program data can be captured from a computer connected to this network and processed in the same manner as in the above-described embodiment. function can also be realized.

なお、本願発明は、実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。 It should be noted that the present invention is not limited to the embodiments, and can be variously modified in the implementation stage without departing from the gist of the invention. Furthermore, the embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some components are deleted from all the components shown in the embodiments, or some components are combined, the problems described in the column of problems to be solved by the invention can be solved, and the invention If the effect described in the effect column of 1 above can be obtained, a configuration in which this constituent element is deleted or combined can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 The invention described in the original claims of the present application is appended below.

[1]
処理対象として選択されたテキストに応じた見本音声を音声出力部から出力させずに、前記見本音声の再生タイミングに合わせて、表示部に表示させた前記見本音声に対応する前記テキストに対して、前記見本音声の再生位置を表すマーカを表示させるテキストマーカモード、
前記見本音声に対応する前記テキストを前記表示部に表示させ、前記テキストを音読した音読音声を音声入力部から入力して、前記音読音声について前記見本音声に基づいて評価し、評価結果を前記表示部において表示させる評価モード、による処理を実行する制御部を有する電子機器。
[1]
For the text corresponding to the sample voice displayed on the display unit in accordance with the reproduction timing of the sample voice without outputting the sample voice corresponding to the text selected as the processing target from the voice output unit, a text marker mode for displaying a marker representing the playback position of the sample voice;
The text corresponding to the sample voice is displayed on the display unit, the reading voice obtained by reading the text is input from the voice input unit, the reading voice is evaluated based on the sample voice, and the evaluation result is displayed on the display. An electronic device having a control unit for executing processing by an evaluation mode displayed in the unit.

[2]
前記制御部は、
前記評価モードを実行する際に、前記見本音声を前記音声出力部から出力させずに、前記見本音声に対応する前記テキストを前記表示部に表示させる、[1]記載の電子機器。
[2]
The control unit
The electronic device according to [1], wherein when the evaluation mode is executed, the text corresponding to the sample voice is displayed on the display unit without outputting the sample voice from the voice output unit.

[3]
前記制御部は、
前記見本音声を前記音声出力部から出力させ、かつ前記見本音声の再生タイミングに合わせて、前記表示部に表示させた前記見本音声に対応する前記テキストに対して、前記見本音声の再生位置を表すマーカを表示させる見本音声モードを実行する、[1]または[2]記載の電子機器。
[3]
The control unit
outputting the sample voice from the voice output unit and representing the playback position of the sample voice with respect to the text corresponding to the sample voice displayed on the display unit in accordance with the playback timing of the sample voice; The electronic device according to [1] or [2], which executes a sample voice mode for displaying a marker.

[4]
前記制御部は、
前記テキスト毎に、前記見本音声モード、前記テキストマーカモード、及び前記評価モードの実行状況を示す進捗情報を記憶させ、
処理対象として選択されたテキストの前記進捗情報に基づいて、前記見本音声モード、前記テキストマーカモード、及び前記評価モードのいずれかを実行する、[3]記載の電子機器。
[4]
The control unit
storing progress information indicating execution statuses of the sample voice mode, the text marker mode, and the evaluation mode for each text;
The electronic device according to [3], wherein any one of the sample voice mode, the text marker mode, and the evaluation mode is executed based on the progress information of the text selected as the processing target.

[5]
前記制御部は、
前記見本音声モードの処理を実行した後に前記テキストマーカモードの処理を実行し、前記テキストマーカモードの処理を実行した後に前記評価モードの処理を実行する、[3]または[4]記載の電子機器。
[5]
The control unit
The electronic device according to [3] or [4], wherein the processing in the text marker mode is executed after executing the processing in the sample voice mode, and the processing in the evaluation mode is executed after executing the processing in the text marker mode. .

[6]
前記制御部は、前記評価モードを実行する際に、前記テキストに対して、前記見本音声の再生位置を表す第1マーカ、あるいは前記音読音声の音読位置を表す第2マーカの少なくともいずれか一方を表示させる、[1]~[5]のいずれかに記載の電子機器。
[6]
The control unit, when executing the evaluation mode, places at least one of a first marker representing a playback position of the sample voice and a second marker representing a reading position of the reading voice for the text. The electronic device according to any one of [1] to [5] for displaying.

[7]
前記制御部は、前記第1マーカと前記第2マーカとを異なる表示形態によって表示させる、[6記載の電子機器。
[7]
[6] The electronic device according to [6], wherein the control unit displays the first marker and the second marker in different display modes.

[8]
前記制御部は、前記第1マーカと前記第2マーカとを、前記テキストと異なる表示形態によって表示させる、[6]または[7]記載の電子機器。
[8]
The electronic device according to [6] or [7], wherein the control unit displays the first marker and the second marker in a display form different from that of the text.

[9]
前記制御部は、
前記評価モードにおいて、前記第1マーカと前記第2マーカについて表示するか否かを示す設定データを記憶し、
前記設定データに応じて、前記第1マーカと前記第2マーカを表示させる、[6]~[8]のいずれかに記載の電子機器。
[9]
The control unit
storing setting data indicating whether or not to display the first marker and the second marker in the evaluation mode;
The electronic device according to any one of [6] to [8], wherein the first marker and the second marker are displayed according to the setting data.

[10]
制御部を有する電子機器における情報処理方法であって、
前記制御部は、
処理対象として選択されたテキストに応じた見本音声を音声出力部から出力させずに、前記見本音声の再生タイミングに合わせて、表示部に表示させた前記見本音声に対応する前記テキストに対して、前記見本音声の再生位置を表すマーカを表示させるテキストマーカモード、
前記見本音声に対応する前記テキストを前記表示部に表示させ、前記テキストを音読した音読音声を音声入力部から入力して、前記音読音声について前記見本音声に基づいて評価し、評価結果を前記表示部において表示させる評価モード、による処理を実行する情報処理方法。
[10]
An information processing method in an electronic device having a control unit,
The control unit
For the text corresponding to the sample voice displayed on the display unit in accordance with the reproduction timing of the sample voice without outputting the sample voice corresponding to the text selected as the processing target from the voice output unit, a text marker mode for displaying a marker representing the playback position of the sample voice;
The text corresponding to the sample voice is displayed on the display unit, the reading voice obtained by reading the text is input from the voice input unit, the reading voice is evaluated based on the sample voice, and the evaluation result is displayed on the display. An information processing method for executing processing according to an evaluation mode displayed in a section.

[11]
コンピュータを、
処理対象として選択されたテキストに応じた見本音声を音声出力部から出力させずに、前記見本音声の再生タイミングに合わせて、表示部に表示させた前記見本音声に対応する前記テキストに対して、前記見本音声の再生位置を表すマーカを表示させるテキストマーカモード、
前記見本音声に対応する前記テキストを前記表示部に表示させ、前記テキストを音読した音読音声を音声入力部から入力して、前記音読音声について前記見本音声に基づいて評価し、評価結果を前記表示部において表示させる評価モード、による処理を実行するように機能させるプログラム。
[11]
the computer,
For the text corresponding to the sample voice displayed on the display unit in accordance with the reproduction timing of the sample voice without outputting the sample voice corresponding to the text selected as the processing target from the voice output unit, a text marker mode for displaying a marker representing the playback position of the sample voice;
The text corresponding to the sample voice is displayed on the display unit, the reading voice obtained by reading the text is input from the voice input unit, the reading voice is evaluated based on the sample voice, and the evaluation result is displayed on the display. A program that functions to perform processing according to evaluation mode, which is displayed in the section.

10…電子辞書、11,21…CPU、12,22…メモリ、12a…辞書制御処理プログラム、12b…学習処理プログラム、12c…辞書データ、12d…学習コンテンツデータ、12e…学習管理データ、12f…学習設定データ、12g…音読評価データ、13…外部記録媒体、14…記録媒体読取部、15…通信部、16…キー入力部、17…タッチパネル式表示部、18…音声入力部、19…音声出力部、20…サーバ。 10... Electronic dictionary 11, 21... CPU 12, 22... Memory 12a... Dictionary control processing program 12b... Learning processing program 12c... Dictionary data 12d... Learning content data 12e... Learning management data 12f... Learning Setting data 12g... Read-aloud evaluation data 13... External recording medium 14... Recording medium reading unit 15... Communication unit 16... Key input unit 17... Touch panel type display unit 18... Voice input unit 19... Voice output Part 20... Server.

Claims (11)

処理対象として選択されたテキストに応じた見本音声を音声出力部から出力させずに、前記見本音声の再生タイミングに合わせて、表示部に表示させた前記見本音声に対応する前記テキストに対して、前記見本音声の再生位置を表すマーカを表示させるテキストマーカモード、
前記見本音声に対応する前記テキストを前記表示部に表示させ、前記テキストを音読した音読音声を音声入力部から入力して、前記音読音声について前記見本音声に基づいて評価し、評価結果を前記表示部において表示させる評価モード、による処理を実行する制御部を有する電子機器。
For the text corresponding to the sample voice displayed on the display unit in accordance with the reproduction timing of the sample voice without outputting the sample voice corresponding to the text selected as the processing target from the voice output unit, a text marker mode for displaying a marker representing the playback position of the sample voice;
The text corresponding to the sample voice is displayed on the display unit, the reading voice obtained by reading the text is input from the voice input unit, the reading voice is evaluated based on the sample voice, and the evaluation result is displayed on the display. An electronic device having a control unit for executing processing by an evaluation mode displayed in the unit.
前記制御部は、
前記評価モードを実行する際に、前記見本音声を前記音声出力部から出力させずに、前記見本音声に対応する前記テキストを前記表示部に表示させる、請求項1記載の電子機器。
The control unit
2. The electronic device according to claim 1, wherein when the evaluation mode is executed, the text corresponding to the sample voice is displayed on the display unit without outputting the sample voice from the voice output unit.
前記制御部は、
前記見本音声を前記音声出力部から出力させ、かつ前記見本音声の再生タイミングに合わせて、前記表示部に表示させた前記見本音声に対応する前記テキストに対して、前記見本音声の再生位置を表すマーカを表示させる見本音声モードを実行する、請求項1または請求項2記載の電子機器。
The control unit
outputting the sample voice from the voice output unit and representing the playback position of the sample voice with respect to the text corresponding to the sample voice displayed on the display unit in accordance with the playback timing of the sample voice; 3. The electronic device according to claim 1, wherein the electronic device executes a sample voice mode in which markers are displayed.
前記制御部は、
前記テキスト毎に、前記見本音声モード、前記テキストマーカモード、及び前記評価モードの実行状況を示す進捗情報を記憶させ、
処理対象として選択されたテキストの前記進捗情報に基づいて、前記見本音声モード、前記テキストマーカモード、及び前記評価モードのいずれかを実行する、請求項3記載の電子機器。
The control unit
storing progress information indicating execution statuses of the sample voice mode, the text marker mode, and the evaluation mode for each text;
4. The electronic device according to claim 3, wherein one of said sample voice mode, said text marker mode, and said evaluation mode is executed based on said progress information of a text selected as a processing target.
前記制御部は、
前記見本音声モードの処理を実行した後に前記テキストマーカモードの処理を実行し、前記テキストマーカモードの処理を実行した後に前記評価モードの処理を実行する、請求項3または請求項4記載の電子機器。
The control unit
5. The electronic device according to claim 3, wherein the processing in the text marker mode is executed after executing the processing in the sample voice mode, and the processing in the evaluation mode is executed after executing the processing in the text marker mode. .
前記制御部は、前記評価モードを実行する際に、前記テキストに対して、前記見本音声の再生位置を表す第1マーカ、あるいは前記音読音声の音読位置を表す第2マーカの少なくともいずれか一方を表示させる、請求項1~請求項5のいずれかに記載の電子機器。 The control unit, when executing the evaluation mode, places at least one of a first marker representing a playback position of the sample voice and a second marker representing a reading position of the reading voice for the text. 6. The electronic device according to any one of claims 1 to 5, for displaying. 前記制御部は、前記第1マーカと前記第2マーカとを異なる表示形態によって表示させる、請求項6記載の電子機器。 7. The electronic device according to claim 6, wherein said control unit displays said first marker and said second marker in different display modes. 前記制御部は、前記第1マーカと前記第2マーカとを、前記テキストと異なる表示形態によって表示させる、請求項6または請求項7記載の電子機器。 8. The electronic device according to claim 6, wherein said control unit displays said first marker and said second marker in a display form different from said text. 前記制御部は、
前記評価モードにおいて、前記第1マーカと前記第2マーカについて表示するか否かを示す設定データを記憶し、
前記設定データに応じて、前記第1マーカと前記第2マーカを表示させる、請求項6~請求項8のいずれかに記載の電子機器。
The control unit
storing setting data indicating whether or not to display the first marker and the second marker in the evaluation mode;
9. The electronic device according to claim 6, wherein said first marker and said second marker are displayed according to said setting data.
制御部を有する電子機器における情報処理方法であって、
前記制御部は、
処理対象として選択されたテキストに応じた見本音声を音声出力部から出力させずに、前記見本音声の再生タイミングに合わせて、表示部に表示させた前記見本音声に対応する前記テキストに対して、前記見本音声の再生位置を表すマーカを表示させるテキストマーカモード、
前記見本音声に対応する前記テキストを前記表示部に表示させ、前記テキストを音読した音読音声を音声入力部から入力して、前記音読音声について前記見本音声に基づいて評価し、評価結果を前記表示部において表示させる評価モード、による処理を実行する情報処理方法。
An information processing method in an electronic device having a control unit,
The control unit
For the text corresponding to the sample voice displayed on the display unit in accordance with the reproduction timing of the sample voice without outputting the sample voice corresponding to the text selected as the processing target from the voice output unit, a text marker mode for displaying a marker representing the playback position of the sample voice;
The text corresponding to the sample voice is displayed on the display unit, the reading voice obtained by reading the text is input from the voice input unit, the reading voice is evaluated based on the sample voice, and the evaluation result is displayed on the display. An information processing method for executing processing according to an evaluation mode displayed in a section.
コンピュータを、
処理対象として選択されたテキストに応じた見本音声を音声出力部から出力させずに、前記見本音声の再生タイミングに合わせて、表示部に表示させた前記見本音声に対応する前記テキストに対して、前記見本音声の再生位置を表すマーカを表示させるテキストマーカモード、
前記見本音声に対応する前記テキストを前記表示部に表示させ、前記テキストを音読した音読音声を音声入力部から入力して、前記音読音声について前記見本音声に基づいて評価し、評価結果を前記表示部において表示させる評価モード、による処理を実行するように機能させるプログラム。

the computer,
For the text corresponding to the sample voice displayed on the display unit in accordance with the reproduction timing of the sample voice without outputting the sample voice corresponding to the text selected as the processing target from the voice output unit, a text marker mode for displaying a marker representing the playback position of the sample voice;
The text corresponding to the sample voice is displayed on the display unit, the reading voice obtained by reading the text is input from the voice input unit, the reading voice is evaluated based on the sample voice, and the evaluation result is displayed on the display. A program that functions to perform processing according to evaluation mode, which is displayed in the section.

JP2022047169A 2021-09-21 2022-03-23 Electronic apparatus, information processing method and program Pending JP2023046222A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211092177.XA CN115840554A (en) 2021-09-21 2022-09-07 Electronic device, information processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021153015 2021-09-21
JP2021153015 2021-09-21

Publications (1)

Publication Number Publication Date
JP2023046222A true JP2023046222A (en) 2023-04-03

Family

ID=85777185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022047169A Pending JP2023046222A (en) 2021-09-21 2022-03-23 Electronic apparatus, information processing method and program

Country Status (1)

Country Link
JP (1) JP2023046222A (en)

Similar Documents

Publication Publication Date Title
JP4370811B2 (en) Voice display output control device and voice display output control processing program
JP4444396B2 (en) Position operation in speech recognition
US20060194181A1 (en) Method and apparatus for electronic books with enhanced educational features
JP6535998B2 (en) Voice learning device and control program
US20160055763A1 (en) Electronic apparatus, pronunciation learning support method, and program storage medium
US20150170648A1 (en) Ebook interaction using speech recognition
US10650089B1 (en) Sentence parsing correction system
CN109389873B (en) Computer system and computer-implemented training system
JP2010198241A (en) Chinese input device and program
JP5083155B2 (en) Electronic device and program with dictionary function
KR100238451B1 (en) A computer aided education system and control techniques for korean
JP4914808B2 (en) Word learning device, interactive learning system, and word learning program
CN110263334A (en) A kind of method and readable storage medium storing program for executing assisting foreign language learning
JP7376071B2 (en) Computer program, pronunciation learning support method, and pronunciation learning support device
US8489389B2 (en) Electronic apparatus with dictionary function and computer-readable medium
JP6641680B2 (en) Audio output device, audio output program, and audio output method
JP2023046222A (en) Electronic apparatus, information processing method and program
US20220036759A1 (en) Augmentative and alternative communication (aac) reading system
JP4534557B2 (en) Information display control device and information display control processing program
CN115840554A (en) Electronic device, information processing method, and storage medium
JP2001005809A (en) Device and method for preparing document and recording medium recording document preparation program
JP3762300B2 (en) Text input processing apparatus and method, and program
KR20010000156A (en) Method for studying english by constituent using internet
JP7379968B2 (en) Learning support devices, learning support methods and programs
CN112951013A (en) Learning interaction method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220916

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220916

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240307

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240315