JP6841309B2 - Electronics and programs - Google Patents

Electronics and programs Download PDF

Info

Publication number
JP6841309B2
JP6841309B2 JP2019145897A JP2019145897A JP6841309B2 JP 6841309 B2 JP6841309 B2 JP 6841309B2 JP 2019145897 A JP2019145897 A JP 2019145897A JP 2019145897 A JP2019145897 A JP 2019145897A JP 6841309 B2 JP6841309 B2 JP 6841309B2
Authority
JP
Japan
Prior art keywords
language
speaker
text
user
conversation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019145897A
Other languages
Japanese (ja)
Other versions
JP2020003806A (en
Inventor
香莉 門澤
香莉 門澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019145897A priority Critical patent/JP6841309B2/en
Publication of JP2020003806A publication Critical patent/JP2020003806A/en
Application granted granted Critical
Publication of JP6841309B2 publication Critical patent/JP6841309B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、電子機器およびプログラムに係り、特に外国語の発音を会話形式で学習することを支援するための電子機器およびプログラムに関する。 The present invention relates to electronic devices and programs, and particularly to electronic devices and programs for assisting in learning pronunciation of a foreign language in a conversational manner.

従来から、ユーザの外国語能力の向上や発音の向上等を支援する学習支援装置が種々開発されている。例えば特許文献1には、日本語の問題文を表示するとともに音声として出力し、ユーザがその回答を英語で発声して録音し、その後、正解文として準備されている英文をネイティブ音声で出力する学習支援装置等が記載されている。その際、ユーザは自ら回答を考えて発音することで、外国語能力向上と発音の練習効果の向上が図られている。 Conventionally, various learning support devices have been developed to support the improvement of a user's foreign language ability and pronunciation. For example, in Patent Document 1, a Japanese question sentence is displayed and output as a voice, the user utters and records the answer in English, and then the English sentence prepared as a correct answer sentence is output as a native voice. A learning support device, etc. are described. At that time, the user thinks about the answer and pronounces it, thereby improving the foreign language ability and the pronunciation practice effect.

また、ユーザが外国語の発音を会話形式(スキット会話等ともいう。)で学習することを支援する学習支援装置も種々開発されている。例えば特許文献2には、会話におけるテキストと音声とを対応付けておき、指定した話者の音声を無音にして再生できるようにして、外国語での会話の練習を行うことができるように構成された音声表示出力制御装置等が記載されている。 In addition, various learning support devices have been developed to support the user to learn the pronunciation of a foreign language in a conversational format (also referred to as skit conversation or the like). For example, Patent Document 2 is configured so that a text and a voice in a conversation are associated with each other so that the voice of a designated speaker can be reproduced without sound so that conversation in a foreign language can be practiced. The audio display output control device and the like are described.

ユーザの会話部分で外国語が再生されると、ユーザは再生されている外国語をただ口真似するようになってしまい、外国語の発音や会話の練習の効果が上がらない場合が少なくないが、上記の音声表示出力制御装置等では、ユーザの会話部分で外国語の音声が再生されないように構成することで、ユーザが思考しながら発音するようになり、外国語の発音と会話との練習効果を上げることが可能となる。 When a foreign language is played in the user's conversation part, the user just imitates the played foreign language, and the pronunciation of the foreign language and the practice of conversation are often not effective. In the above-mentioned voice display output control device or the like, by configuring so that the voice of the foreign language is not reproduced in the conversation part of the user, the user can pronounce while thinking, and the practice effect of the pronunciation of the foreign language and the conversation. It becomes possible to raise.

特開平10−228230号公報Japanese Unexamined Patent Publication No. 10-228230 特開2004−205782号公報Japanese Unexamined Patent Publication No. 2004-205782

しかしながら、上記の特許文献1に記載された装置等では、ユーザは日本語の問題文を英訳して発音するだけであるため、外国語でやり取りされる会話の能力向上につながりにくく、また、会話のキャッチボールがない点でも外国語の会話の練習にはなりづらいという問題がある。 However, in the device or the like described in Patent Document 1 above, since the user only translates the Japanese problem sentence into English and pronounces it, it is difficult to improve the ability of conversation exchanged in a foreign language, and conversation. There is also the problem that it is difficult to practice conversation in a foreign language because there is no catch ball.

また、上記の特許文献2に記載された装置等では、外国語での会話の練習にはなるが、ユーザの発音が録音されないため、ユーザが、自分が正しい発音をしたか否かを聞き直して確認したり、自分の発音とネイティブの発音とを聞き比べたりすることができない。そのため、外国語の発音と会話の練習効果がさほど上がらない虞れがあった。 Further, in the device or the like described in Patent Document 2 above, although it is possible to practice conversation in a foreign language, the user's pronunciation is not recorded, so the user re-listens whether or not he / she has pronounced correctly. I can't check it or compare my pronunciation with the native pronunciation. Therefore, there is a risk that the pronunciation and conversation practice effect of foreign languages will not be improved so much.

本発明は、上記の問題点を鑑みてなされたものであり、外国語での会話の練習の際に、自分の発声した音声を録音し、録音した自分の発音を聞き直したりネイティブの発音と聞き比べたりすることが容易に行えるようにした電子機器およびプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and when practicing conversation in a foreign language, the voice of one's own utterance is recorded, and the recorded one's own pronunciation is re-listened to the native pronunciation. It is an object of the present invention to provide electronic devices and programs that can be easily compared and heard.

以上の課題を解決するため、本発明の電子機器は、第1話者と第2話者を含む複数の話者が交互に発話する会話を対象とした学習において、前記第1話者の発話部分に対応する第1言語の音声データを前記会話の進行に合わせて再生する第1再生制御手段と、前記第2話者の発話部分に対応してユーザが発声した前記第1言語による音声の音声データを、前記第1再生制御手段により再生される前記会話の進行に合わせて録音する録音制御手段と、前記録音制御手段により録音した前記ユーザの音声データを再生する第2再生制御手段と、前記第1話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語と前記第2言語の両方のテキストを非表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第1判断手段と、前記第2話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語のテキストを非表示にして前記第2言語のテキストを表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第2判断手段と、前記第1判断手段および前記第2判断手段の判断結果に応じて、前記第1話者の発話部分に対応する前記第1言語または前記第2言語のテキストと、前記第2話者の発話部分に対応する前記第1言語または前記第2言語のテキストを、前記第1再生制御手段により再生される前記会話の進行に合わせて表示する制御を行う表示制御手段と、を備えることを特徴とする。 In order to solve the above problems, the electronic device of the present invention is used in learning for a conversation in which a plurality of speakers including a first speaker and a second speaker alternately speak, and the first speaker speaks. The first reproduction control means for reproducing the voice data of the first language corresponding to the portion according to the progress of the conversation, and the voice in the first language uttered by the user corresponding to the spoken portion of the second speaker. A recording control means that records audio data in accordance with the progress of the conversation reproduced by the first reproduction control means, and a second reproduction control means that reproduces the user's audio data recorded by the recording control means. When displaying the text corresponding to the spoken part of the first speaker, either the texts of both the first language and the second language are displayed, or the texts of both the first language and the second language are not displayed. The first judgment means for determining whether to display based on the level selected corresponding to the user, and the first language when displaying the text corresponding to the spoken portion of the second speaker. Whether to display both texts in the second language or to hide the texts in the first language and display the texts in the second language is determined based on the level selected for the user. The second judgment means, the text of the first language or the second language corresponding to the spoken portion of the first speaker, and the text of the second language, depending on the judgment results of the first judgment means and the second judgment means. A display control means that controls to display the text of the first language or the second language corresponding to the spoken portion of the second speaker according to the progress of the conversation reproduced by the first reproduction control means. It is characterized by having.

本発明によれば、外国語の会話の練習の際に、自分の発声した音声を録音し、録音した、自分の発音を聞き直したりネイティブの発音と聞き比べたりすることが容易に行えるようになり、外国語の発音と会話の練習効果を的確に向上させることが可能となる。 According to the present invention, when practicing conversation in a foreign language, it is possible to easily record a voice uttered by oneself and re-listen to one's own pronunciation or compare it with a native pronunciation. Therefore, it is possible to accurately improve the pronunciation and conversation practice effect of foreign languages.

電子機器の概観を示す平面図である。It is a top view which shows the overview of an electronic device. 電子機器の別の構成例を表す図である。It is a figure which shows another configuration example of an electronic device. 電子機器の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an electronic device. 記憶部に記憶されている会話練習DBにおけるテキストと音声データの構成を表す図である。It is a figure which shows the structure of the text and voice data in the conversation practice DB stored in the storage part. 電子機器の制御部が行う各処理を説明するフローチャートである。It is a flowchart explaining each process performed by the control part of an electronic device. 再生モードで行われる各処理を説明するフローチャートである。It is a flowchart explaining each process performed in a play mode. 録音モードで行われる各処理を説明するフローチャートである。It is a flowchart explaining each process performed in a recording mode. (A)〜(D)ディスプレイ上の表示内容等を表す図である。(A) to (D) are diagrams showing display contents and the like on a display. (A)〜(D)ディスプレイ上の表示内容等を表す図である。(A) to (D) are diagrams showing display contents and the like on a display. (A)、(B)STEP2が選択された場合のディスプレイ上の表示内容等を表す図である。It is a figure which shows the display content and the like on the display when STEP2 (A) and (B) are selected. (A)、(B)STEP3が選択された場合のディスプレイ上の表示内容等を表す図である。It is a figure which shows the display content and the like on the display when STEP3 (A) and (B) are selected. 電子機器の制御部が行う各処理の変形例を説明するフローチャートである。It is a flowchart explaining the modification of each process performed by the control part of an electronic device.

以下、本発明に係る電子機器の実施の形態について、図面を参照して説明する。なお、以下では、電子機器が、図1に示すようなハンディな一体型の電子機器である場合について説明するが、発明の範囲は、図示例に限定されない。なお、図1に示す本発明に係る電子機器に、電子辞書等の他の機能を持たせるように構成することも可能である。 Hereinafter, embodiments of the electronic device according to the present invention will be described with reference to the drawings. In the following, a case where the electronic device is a handy integrated electronic device as shown in FIG. 1 will be described, but the scope of the invention is not limited to the illustrated examples. It is also possible to configure the electronic device according to the present invention shown in FIG. 1 to have other functions such as an electronic dictionary.

また、本発明は、例えば図2に示すように、携帯情報端末やスマートフォン等の端末102とメインコンピュータ101とを回線や無線塔で結び、ユーザに端末102を操作させ、それに応じてメインコンピュータ101で種々の処理を行い、メインコンピュータ101から端末102に必要なデータ等を送信する等して、端末102上にテキストを表示させたり端末102上で音声を再生させたり録音させたりする場合も適用される。そして、この場合は、メインコンピュータ101が、本発明に係る電子機器に相当する。 Further, in the present invention, for example, as shown in FIG. 2, a terminal 102 such as a personal digital assistant or a smartphone and a main computer 101 are connected by a line or a wireless tower, and a user is allowed to operate the terminal 102, and the main computer 101 is operated accordingly. It is also applicable to display text on the terminal 102 or to play or record audio on the terminal 102 by performing various processes in the main computer 101 and transmitting necessary data or the like from the main computer 101 to the terminal 102. Will be done. In this case, the main computer 101 corresponds to the electronic device according to the present invention.

さらに、以下では、後述する第1言語が外国語(特に英語)であり、第2言語が日本語である場合について説明するが、本発明はこの場合に限定されず、例えば中国人がフランス語の発音を学習するような場合には、第1言語はフランス語、第2言語は中国語となる。このように、第1言語と第2言語の組み合わせは、どの国のユーザがどの外国語を学習するかに応じて適宜決められる。また、例えばユーザの操作によって第1言語と第2言語との組み合わせを切り替えることができるように構成することも可能である。 Further, the case where the first language described later is a foreign language (particularly English) and the second language is Japanese will be described below, but the present invention is not limited to this case, for example, the Chinese is French. When learning pronunciation, the first language is French and the second language is Chinese. As described above, the combination of the first language and the second language is appropriately determined according to which country's user learns which foreign language. Further, for example, it is possible to configure the combination so that the combination of the first language and the second language can be switched by the operation of the user.

図1は、本実施形態に係る電子機器の平面図である。図1に示すように、電子機器1は、ディスプレイ2、入力キー群3、マイクロフォン4、スピーカ5等を備えている。 FIG. 1 is a plan view of an electronic device according to the present embodiment. As shown in FIG. 1, the electronic device 1 includes a display 2, an input key group 3, a microphone 4, a speaker 5, and the like.

ディスプレイ2は、ユーザによる入力キー群2の操作に応じたテキストや文字、符号等の各種データを白黒またはカラーで表示する部分であり、液晶ディスプレイ(Liquid Crystal Display)等により構成されている。また、ディスプレイ2は、いわゆるタッチパネルと一体的に形成することも可能であり、タッチパネルと一体的に形成されると、手書き入力等の操作を受け付けることができるようになる。 The display 2 is a portion that displays various data such as texts, characters, and codes according to the operation of the input key group 2 by the user in black and white or color, and is composed of a liquid crystal display (Liquid Crystal Display) or the like. Further, the display 2 can be formed integrally with the so-called touch panel, and when formed integrally with the touch panel, it becomes possible to accept operations such as handwriting input.

入力キー群3は、ユーザから電子機器1を操作するための操作を受ける各種キーを有している。具体的には、入力キー群2は、文字キー3aや、決定キー3b、カーソルキー3c等を有している。文字キー3aは、ユーザによる文字の入力等に使用されるキーであり、本実施形態では“A”〜“Z”キーを備えている。決定キー3bは、ユーザが行う選択処理等の際に決定を指示するキーである。カーソルキー3cは、ディスプレイ2の画面内のカーソル位置の移動等に使用されるキーであり、本実施形態においては上下左右の方向を指定可能となっている。 The input key group 3 has various keys for receiving an operation for operating the electronic device 1 from the user. Specifically, the input key group 2 has a character key 3a, a decision key 3b, a cursor key 3c, and the like. The character key 3a is a key used for inputting a character by a user, and includes "A" to "Z" keys in the present embodiment. The decision key 3b is a key for instructing a decision at the time of selection processing or the like performed by the user. The cursor key 3c is a key used for moving the cursor position in the screen of the display 2, and in the present embodiment, the up, down, left, and right directions can be specified.

マイクロフォン4は、ユーザが発声する音声を録音するための機器であり、スピーカ5は、後述する音声データやユーザが録音した自分の声を再生して発声させるための機器である。 The microphone 4 is a device for recording a voice uttered by a user, and a speaker 5 is a device for reproducing and uttering voice data described later or one's own voice recorded by the user.

[内部構成]
次に、電子機器1の内部構造について説明する。図3は、電子機器1の内部構成を示すブロック図である。図3に示すように、電子機器1は、入出力制御部11、表示部12、キー入力部13、音声入力部14、音声出力部15、制御部20、記憶部30、RAM(Random Access Memory)40等がそれぞれ接続されて構成されている。
[Internal configuration]
Next, the internal structure of the electronic device 1 will be described. FIG. 3 is a block diagram showing an internal configuration of the electronic device 1. As shown in FIG. 3, the electronic device 1 includes an input / output control unit 11, a display unit 12, a key input unit 13, a voice input unit 14, a voice output unit 15, a control unit 20, a storage unit 30, and a RAM (Random Access Memory). ) 40 and the like are connected to each other.

なお、図2に示したように、メインコンピュータ101と端末102とで構成する場合には、メインコンピュータ101と端末102とは、図3の破線の部分で構成が分けられる。そして、メインコンピュータ101側の制御部20や端末102側の入出力制御部11にはそれぞれ図示しないアンテナや入出力インターフェース等が設けられ、両者の間で直接或いは基地局等を介してデータ等のやり取りが行われるように構成される。 As shown in FIG. 2, when the main computer 101 and the terminal 102 are configured, the configuration of the main computer 101 and the terminal 102 is divided by the broken line portion in FIG. An antenna, an input / output interface, etc. (not shown) are provided in the control unit 20 on the main computer 101 side and the input / output control unit 11 on the terminal 102 side, respectively, and data or the like can be obtained directly between them or via a base station or the like. It is configured to be exchanged.

表示部12は、上記のディスプレイ2を備えており、キー入力部13は、上記の入力キー群3を備えている。また、音声入力部14は、上記のマイクロフォン4を備えており、音声出力部15は、上記のスピーカ5を備えている。 The display unit 12 includes the display 2 described above, and the key input unit 13 includes the input key group 3 described above. Further, the voice input unit 14 includes the microphone 4 described above, and the voice output unit 15 includes the speaker 5 described above.

入出力制御部11は、ユーザにより入力キー群3の操作が行われてキー入力部13から入力されると、操作されたキーが表す内容を表示部12を介してディスプレイ2上に表示させたり、或いは、操作されたキーの指示内容を制御部20に送信したりする。また、入出力制御部11は、マイクロフォン4で録音されたユーザの声等の録音データが音声入力部14から送られてくると、それを制御部20に送信する。 When the user performs an operation of the input key group 3 and inputs from the key input unit 13, the input / output control unit 11 displays the content represented by the operated key on the display 2 via the display unit 12. Alternatively, the instruction content of the operated key is transmitted to the control unit 20. Further, when the recorded data such as the user's voice recorded by the microphone 4 is sent from the voice input unit 14, the input / output control unit 11 transmits it to the control unit 20.

また、入出力制御部11は、制御部20からテキストデータが送られてくると、表示部12を介してそれをディスプレイ2上に表示させたり、制御部20から音声データが送られてくると、音声出力部15でそれを再生させてスピーカ5から発声させる等の処理を行うようになっている。なお、入出力制御部11と制御部20とを分けずに、制御部20が入出力制御部11としても機能するように構成することも可能である。 Further, when the text data is sent from the control unit 20, the input / output control unit 11 displays it on the display 2 via the display unit 12, or when the voice data is sent from the control unit 20. , The voice output unit 15 reproduces it and causes the speaker 5 to make a voice. It is also possible to configure the control unit 20 to function as the input / output control unit 11 without separating the input / output control unit 11 and the control unit 20.

記憶部30は、電子機器1の各種機能を実現するための制御プログラムや各種データ等を記憶している。本実施形態では、記憶部30は、制御プログラムや後述する本発明に係るプログラムを記憶する記憶領域31と、テキストや音声データ等が記憶された会話練習データベース(DB)を記憶する記憶領域32と、後述する話者Aが指定された場合や話者Bが指定された場合に必要になるデータ(図3では「A/B選択データ」と記載されている。)を記憶する記憶領域33等を備えている。 The storage unit 30 stores control programs, various data, and the like for realizing various functions of the electronic device 1. In the present embodiment, the storage unit 30 has a storage area 31 for storing a control program and a program according to the present invention described later, and a storage area 32 for storing a conversation practice database (DB) in which text, voice data, and the like are stored. , A storage area 33 or the like for storing data (described as "A / B selection data" in FIG. 3) required when speaker A is designated or speaker B is designated, which will be described later. It has.

RAM40は、制御部20の作業領域として機能するメモリであり、ディスプレイ2上に表示させるテキスト等の表示データを一時的に記憶する記憶領域41や、会話練習データベースから読み出してスピーカ5で再生させる録音データを一時的に記憶する記憶領域42等を有している。 The RAM 40 is a memory that functions as a work area of the control unit 20, and is a storage area 41 that temporarily stores display data such as text to be displayed on the display 2, and a recording that is read from a conversation practice database and played back by the speaker 5. It has a storage area 42 or the like for temporarily storing data.

制御部20は、CPU(Central Processing Unit)で形成されており、記憶部30やRAM40等と接続されている。そして、制御部20は、入出力制御部11から入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの転送等を行い、電子機器1を統括的に制御するようになっている。 The control unit 20 is formed by a CPU (Central Processing Unit) and is connected to a storage unit 30, a RAM 40, and the like. Then, the control unit 20 executes processing based on a predetermined program in response to an instruction input from the input / output control unit 11, issues an instruction to each function unit, transfers data, and the like, and controls the electronic device 1. It is designed to be controlled in a targeted manner.

具体的には、制御部20は、ユーザにより入力キー群3が操作されて入力された操作信号や、ディスプレイ2のタッチパネルにユーザがタッチして入力された操作信号等が、キー入力部13や表示部12等から入出力制御部11に送信され、入出力制御部11からそれらの操作信号等が入力されると、入力される操作信号等に応じて記憶部30に格納された各種プログラムを読み出し、当該プログラムに従って処理を実行する。また、制御部20は、ユーザの声等がマイクロフォン4で録音された録音データが音声入力部14や入出力制御部11を介して送られてくると、それをRAM40に保存する。 Specifically, in the control unit 20, the key input unit 13 and the operation signal input by the user operating the input key group 3 and the operation signal input by the user touching the touch panel of the display 2 are used. When the input / output control unit 11 transmits to the input / output control unit 11 and the operation signals and the like are input from the input / output control unit 11, various programs stored in the storage unit 30 are stored in response to the input operation signals and the like. Read and execute the process according to the program. Further, when the recorded data in which the user's voice or the like is recorded by the microphone 4 is sent via the voice input unit 14 or the input / output control unit 11, the control unit 20 stores the recorded data in the RAM 40.

そして、制御部20は、処理結果をRAM40に一時的に保存するとともに、当該処理結果を入出力制御部11に送り、表示部12に送ってディスプレイ2上に表示させたり、音声出力部15に送ってスピーカ5で再生させたりする。また、音声データや録音データを再生する指示があった場合は、記憶部30の会話練習DBから音声データを読み出したり、RAM40に保存した録音データを読み出して入出力制御部11に送り、音声出力部15に送ってスピーカ5で再生させる等の処理を行うようになっている。 Then, the control unit 20 temporarily stores the processing result in the RAM 40, sends the processing result to the input / output control unit 11, sends the processing result to the display unit 12, displays it on the display 2, or causes the audio output unit 15 to display the processing result. It is sent and played back on the speaker 5. When instructed to reproduce the voice data or the recorded data, the voice data is read from the conversation practice DB of the storage unit 30, the recorded data stored in the RAM 40 is read and sent to the input / output control unit 11, and the voice is output. Processing such as sending the data to the unit 15 and playing the data on the speaker 5 is performed.

[記憶部における会話練習DBの構成について]
本発明に係る電子機器1では、後述するように、交互に発話して外国語で会話を行う2人の話者のうち、一方の話者をユーザが指定してその話者になり切り、ディスプレイ2上に表示される外国語のテキストを見ながら、或いは外国語のテキストを表示させない状態で、他方の話者であるネイティブの話者と模擬的に会話を行う。そして、指定した一方の話者の会話部分をユーザが自ら発声した音声を録音し、自分の発音を聞き直したりネイティブの発音と聞き比べたりすることによって、ユーザが外国語の発音と会話の練習を行うようになっている。なお、指定の仕方は録音する側の話者を指定するのではなく、録音しない側の話者を指定するようにしても良い。
[About the structure of the conversation practice DB in the memory section]
In the electronic device 1 according to the present invention, as will be described later, of the two speakers who alternately speak and have a conversation in a foreign language, the user designates one speaker and becomes the speaker. While looking at the foreign language text displayed on the display 2, or without displaying the foreign language text, have a simulated conversation with the native speaker who is the other speaker. Then, the user practices pronunciation and conversation in a foreign language by recording the voice that the user utters by himself / herself in the conversation part of one of the designated speakers, and by re-listening to his / her own pronunciation or comparing it with the native pronunciation. Is supposed to do. In addition, the method of designation may not specify the speaker on the recording side, but may specify the speaker on the non-recording side.

その際、後で詳しく説明するが、本実施形態では、一方の話者の会話部分や他方の話者の会話部分で、ディスプレイ2上に外国語(第1言語)のテキストやその意味を示す日本語(第2言語)のテキストが表示されたり表示されなかったりする。そのため、本実施形態では、記憶部30に記憶されている会話練習DBには、図4に示すように、2人の話者A、Bが交互に会話する各会話部分について、外国語テキスト(第1言語のテキスト)と、日本語テキスト(第2言語のテキスト)と、外国語テキストに対応するネイティブの外国語の音声データとがそれぞれ会話部分ごとに記憶されるようになっている。 At that time, as will be described in detail later, in the present embodiment, the text of a foreign language (first language) and its meaning are shown on the display 2 in the conversation part of one speaker and the conversation part of the other speaker. Japanese (second language) text may or may not be displayed. Therefore, in the present embodiment, as shown in FIG. 4, the conversation practice DB stored in the storage unit 30 contains a foreign language text (for each conversation portion in which the two speakers A and B alternately talk). The first language text), the Japanese text (second language text), and the native foreign language voice data corresponding to the foreign language text are stored for each conversation part.

なお、図4や以下の説明では、話者が2人(A、B)の場合について説明するが、話者が3人以上であってもよい。そして、その場合、図示を省略するが、記憶部30に記憶されている会話練習DBには、複数の話者が互いに会話する各会話部分について、外国語テキスト(第1言語のテキスト)と、日本語テキスト(第2言語のテキスト)と、外国語テキストに対応するネイティブの外国語の音声データとがそれぞれ記憶される。また、話者が3人以上の場合においても、以下の説明と同様に説明される。 In FIG. 4 and the following description, the case where the number of speakers is two (A, B) will be described, but the number of speakers may be three or more. In that case, although not shown, the conversation practice DB stored in the storage unit 30 contains a foreign language text (text of the first language) and a foreign language text (text of the first language) for each conversation portion in which a plurality of speakers talk to each other. Japanese text (second language text) and native foreign language voice data corresponding to the foreign language text are stored respectively. Further, even when there are three or more speakers, the explanation will be the same as the following explanation.

[動作]
次に、本実施形態に係る電子機器1における動作について、図5〜図7に示すフローチャート等に基づいて説明する。また、本実施形態に係る電子機器1の作用についてもあわせて説明する。なお、以下で説明する電子機器1の動作は、前述した本発明に係るプログラムに従って行われるため、以下の説明は、本発明に係るプログラムについての説明にもなっている。
[motion]
Next, the operation of the electronic device 1 according to the present embodiment will be described with reference to the flowcharts and the like shown in FIGS. 5 to 7. In addition, the operation of the electronic device 1 according to the present embodiment will also be described. Since the operation of the electronic device 1 described below is performed according to the program according to the present invention described above, the following description is also a description of the program according to the present invention.

電子機器1が本発明の外国語の会話学習の専用装置として形成されている場合には、ユーザにより電子機器1の電源がオンされると、電子機器1の制御部20は会話学習を自動的に開始する。また、電子機器1が電子辞書等の他の機能を有している場合には、ユーザにより電子機器1の電源がオンされて外国語の会話学習が選択されると、制御部20は会話学習を開始する。制御部20が行う具体的な各処理を図5のフローチャートに示す。 When the electronic device 1 is formed as a dedicated device for learning a conversation in a foreign language of the present invention, when the power of the electronic device 1 is turned on by the user, the control unit 20 of the electronic device 1 automatically performs the conversation learning. Start with. Further, when the electronic device 1 has another function such as an electronic dictionary, when the power of the electronic device 1 is turned on by the user and conversation learning in a foreign language is selected, the control unit 20 performs conversation learning. To start. Each specific process performed by the control unit 20 is shown in the flowchart of FIG.

外国語の会話学習を開始すると、制御部20は、ディスプレイ2上に図8(A)に示すような選択画面を表示させ、ユーザに外国語能力のレベルに相当するSTEPを選択させる(ステップS1)。その際、以下の選択画面においても同様であるが、ユーザは、選択画面上の各項目の左側に記載されているA、B、…等に対応する文字キー3a(図1参照)を押下したり、或いは選択する項目をタッチペン102a(図2参照)でタッチする等して、項目(図8(A)の場合はいずれかのSTEP)を選択することができるようになっている。 When the conversation learning of a foreign language is started, the control unit 20 displays a selection screen as shown in FIG. 8A on the display 2 and causes the user to select a STEP corresponding to the level of the foreign language ability (step S1). ). At that time, the same applies to the following selection screen, but the user presses the character keys 3a (see FIG. 1) corresponding to A, B, ..., Etc. described on the left side of each item on the selection screen. Alternatively, the item (in the case of FIG. 8A, any STEP) can be selected by touching the item to be selected with the touch pen 102a (see FIG. 2).

なお、ここで、STEP0(A:シャドーインクしよう)が選択されると、後述する話者選択(ステップS3)は行われず、各話者の各会話部分についてそれぞれ図4に示した外国語テキストとその意味を示す日本語テキストとが読み出されてディスプレイ2上に表示され、外国語テキストに対応するネイティブの外国語の音声データが再生されてスピーカ5から発声される。ユーザは、この発声に合わせて自らも発音する会話学習を行う。 Here, when STEP0 (A: Let's shadow ink) is selected, the speaker selection (step S3) described later is not performed, and each conversation part of each speaker is different from the foreign language text shown in FIG. The Japanese text indicating the meaning is read out and displayed on the display 2, and the native foreign language voice data corresponding to the foreign language text is reproduced and uttered from the speaker 5. The user learns conversation by pronouncing himself / herself in accordance with this utterance.

そして、外国語の会話が一通り済んだ時点で、会話学習は終了する。この際、ユーザにSTEPを選択させる処理(ステップS1)に戻るように構成することも可能である。以下では、STEP1〜3のいずれかが選択された場合について説明する。 Then, when the conversation in the foreign language is completed, the conversation learning ends. At this time, it is also possible to configure the process to return to the process (step S1) in which the user selects STEP. Hereinafter, a case where any one of STEPs 1 to 3 is selected will be described.

電子機器1の制御部20は、ユーザにより図8(A)に示す選択画面上でSTEP1〜3の何れかが選択されると(ステップS1)、続いて、ディスプレイ2上に図8(B)に示す選択画面を表示させてコンテンツすなわち会話の場面を選択させる(ステップS2)。そして、ユーザによりコンテンツが選択されると、制御部20は、続いて、ディスプレイ2上に図8(C)に示す選択画面を表示させて、複数の話者(この場合は話者A、B)のうちの一の話者を選択させて指定させる(ステップS3)。 When any one of STEPs 1 to 3 is selected by the user on the selection screen shown in FIG. 8A, the control unit 20 of the electronic device 1 (step S1) is subsequently displayed on the display 2 (B). The selection screen shown in (1) is displayed to select the content, that is, the scene of the conversation (step S2). Then, when the content is selected by the user, the control unit 20 subsequently displays the selection screen shown in FIG. 8C on the display 2, and a plurality of speakers (in this case, speakers A and B). ) Is selected and specified (step S3).

ここでは、話者Aは、外国語(本実施形態では英語)を母国語とする外国人であり、話者Bは、外国語を学ぶ日本人である場合が示されている。そして、以下では、ユーザが話者Bを指定して、外国語を学ぶ日本人になり切って会話や発音を学習する場合について説明するが、ユーザは必ずしも日本人である話者Bを指定する必要はなく、外国人である話者Aを選択してもよい。 Here, the case where the speaker A is a foreigner whose mother tongue is a foreign language (English in the present embodiment) and the speaker B is a Japanese who learns a foreign language is shown. Then, in the following, a case where the user specifies speaker B and learns conversation and pronunciation by impersonating a Japanese who learns a foreign language will be described, but the user does not necessarily specify speaker B who is Japanese. It is not necessary, and speaker A, who is a foreigner, may be selected.

制御部20は、ユーザにより話者が指定されると、図8(D)に示すように、ディスプレイ2上に選択されたコンテンツのタイトル等を表示させるとともに、ディスプレイ2の下方に、話者A、Bのキャラクタを表示させる。また、ディスプレイ2の下方に、決定キー3b(図1参照)を押下すると会話学習が始まることや、指定した話者Bの番でマイクロフォン4に向かって発声することを指示する表示等を表示させる。 When a speaker is designated by the user, the control unit 20 displays the title of the selected content or the like on the display 2 as shown in FIG. 8D, and the speaker A is displayed below the display 2. , B character is displayed. Further, below the display 2, when the enter key 3b (see FIG. 1) is pressed, conversation learning is started, and a display instructing the microphone 4 to speak at the designated speaker B's turn is displayed. ..

そして、ユーザにより決定キー3bが押下されると、制御部20は、図5のフローチャートのステップS4以降の各処理に移行する。具体的には、制御部20は、記憶部30に記憶されている会話練習DBから、このコンテンツにおける各話者の各会話部分のうち、最初に話す話者(この場合は話者A)の最初の会話部分の外国語テキストと日本語テキストと外国語の音声データとを読み出す(ステップS4)。 Then, when the decision key 3b is pressed by the user, the control unit 20 shifts to each process after step S4 in the flowchart of FIG. Specifically, the control unit 20 is the speaker (in this case, speaker A) who speaks first among the conversation parts of each speaker in this content from the conversation practice DB stored in the storage unit 30. The foreign language text, the Japanese text, and the foreign language voice data of the first conversation part are read out (step S4).

そして、制御部20は、ユーザの番であるか否か(ステップS5)すなわちユーザが指定した話者Bの会話の順番か否かを判断し、ユーザの番であれば(ステップS5;Yes)録音モードに移行し(ステップS6)、ユーザの番でなければ(ステップS5;No)再生モードに移行する(ステップS7)。このように、制御部20は、ユーザにより指定された話者B以外の話者Aの会話部分では音声データの再生を行わせ(再生モード)、指定された話者Bの会話部分では音声データの再生を行わせずに録音を行わせる(録音モード)ようになっている。 Then, the control unit 20 determines whether or not it is the user's turn (step S5), that is, whether or not it is the order of the conversation of the speaker B specified by the user, and if it is the user's turn (step S5; Yes). It shifts to the recording mode (step S6), and if it is not the user's turn (step S5; No), it shifts to the playback mode (step S7). In this way, the control unit 20 causes the voice data to be reproduced in the conversation part of the speaker A other than the speaker B specified by the user (playback mode), and the voice data in the conversation part of the designated speaker B. It is designed to record without playing back (recording mode).

今の場合、ユーザが指定したのは話者Bであり、最初の会話部分は話者Aの会話部分であり、ユーザ(話者B)の順番ではないから(ステップS5;No)、制御部20は、再生モード(ステップS7)に移行する。以下、再生モード(ステップS7)について説明する。 In this case, the user has specified speaker B, and the first conversation part is the conversation part of speaker A, not in the order of the user (speaker B) (step S5; No), so the control unit. 20 shifts to the reproduction mode (step S7). Hereinafter, the reproduction mode (step S7) will be described.

本実施形態では、制御部20は、ステップS1(図5参照)でユーザにより選択されたSTEPがSTEP1あるいはSTEP2である場合には、以下の各図で説明するように(後述する図9(A)、図10(A)参照)、話者Aの会話部分では外国語テキスト(第1言語のテキスト。本実施形態では英語のテキスト)と第2言語のテキスト(本実施形態では日本語のテキスト)の両方を表示させるパターンでディスプレイ2上に会話テキストを表示させる。 In the present embodiment, when the STEP selected by the user in step S1 (see FIG. 5) is STEP1 or STEP2, the control unit 20 will be described with reference to the following figures (FIG. 9 (A) described later). ), Fig. 10 (A)), Foreign language text (text in the first language; English text in this embodiment) and text in the second language (Japanese text in this embodiment) in the conversation part of speaker A. ) Is displayed on the display 2 in a pattern that displays both of them.

そして、ユーザにより選択されたSTEPがSTEP3であった場合には、ユーザの学習のレベルが上がったとして、ユーザの会話能力をさらに向上させるために、図11(A)に示すように、話者Aの会話部分ではディスプレイ2上に外国語テキストも日本語のテキストも表示させず、それらの部分を網掛け等で隠すように表示するパターンでディスプレイ2上に表示させ、音声だけで相手が言ったことを理解し、それに対する会話の練習をするように制御するようになっている。 Then, when the STEP selected by the user is STEP 3, it is assumed that the level of learning of the user has increased, and in order to further improve the conversation ability of the user, as shown in FIG. 11 (A), the speaker In the conversation part of A, neither foreign language text nor Japanese text is displayed on the display 2, but the part is displayed on the display 2 in a pattern that hides those parts by shading or the like, and the other party says only by voice. It is designed to understand that and to practice conversation with it.

なお、STEP2、3のいずれのSTEPが選択された場合でも、後述する録音を聞く処理(ステップS11)やお手本を聞く処理(ステップS12)の際には、ユーザが外国語を正しく発音できているか否かを判断することができるようにするために、外国語テキストを表示させる。 Regardless of which STEP 2 or 3 is selected, whether the user can pronounce the foreign language correctly during the process of listening to the recording (step S11) or the process of listening to the model (step S12), which will be described later. Display a foreign language text so that you can judge whether or not.

図6のフローチャートに戻り、再生モードの説明をする。まず、ステップS1(図5参照)でユーザにより選択されたSTEPがSTEP3であるか否かを判断する(ステップS71)。 Returning to the flowchart of FIG. 6, the reproduction mode will be described. First, it is determined whether or not the STEP selected by the user in step S1 (see FIG. 5) is STEP 3 (step S71).

そして、STEP3でなければ(ステップS71;No)、すなわちユーザにより選択されたSTEPがSTEP1、2であれば、制御部20は、話者Aの会話部分で外国語テキストを表示させるパターンを選択し、図9(A)や図10(A)に示すように、ディスプレイ2上に、ステップS4で記憶部30に記憶されている会話練習DBから読み出した外国語テキストを表示させる。また、同時に読み出した日本語テキストをその下側に表示させる(ステップS72)。 Then, if it is not STEP3 (step S71; No), that is, if the STEPs selected by the user are STEP1 and STEP2, the control unit 20 selects a pattern for displaying the foreign language text in the conversation part of the speaker A. , As shown in FIGS. 9A and 10A, the foreign language text read from the conversation practice DB stored in the storage unit 30 in step S4 is displayed on the display 2. In addition, the Japanese text read at the same time is displayed below it (step S72).

そして、今は話者Aの会話部分を示す番であるから、図9(A)や図10(A)、図11(A)に示すように、上記の外国語テキストの音声が話者Aによって発声されていることを表すために、制御部20は、外国語テキスト等の表示部分を、話者Aに対応するキャラクタからの吹き出し画像として表示させる(ステップS73)。また、制御部20は、図9(A)等に示すように、話者Aに対応するキャラクタが手を挙げているように表示させて、話者Aの会話部分が再生中であることを表すようにキャラクタを表示させる(ステップS73)。 And now, since it is the turn to show the conversation part of the speaker A, as shown in FIGS. 9 (A), 10 (A), and 11 (A), the voice of the above foreign language text is the speaker A. In order to indicate that the voice is being uttered by, the control unit 20 displays a display portion such as foreign language text as a balloon image from the character corresponding to the speaker A (step S73). Further, as shown in FIG. 9A and the like, the control unit 20 displays that the character corresponding to the speaker A is raising his / her hand, and indicates that the conversation part of the speaker A is being played. The character is displayed so as to be represented (step S73).

さらに、制御部20は、図9(A)等に示すように、ディスプレイ2の下方に、例えば「収録音声再生中」等と表示させたり、電子機器1から音声が発声されている状態を表示して音声を再生中であることを表すアイコンを表示させる(ステップS73)。そして、制御部20は、この状態で、ステップS4で記憶部30に記憶されている会話練習DBから読み出した当該会話部分の外国語の音声データを再生させて(ステップS74)スピーカ5から発声させるようになっている。 Further, as shown in FIG. 9A and the like, the control unit 20 displays, for example, “recorded voice is being reproduced” or the like below the display 2, or displays a state in which voice is being uttered from the electronic device 1. Then, an icon indicating that the sound is being played is displayed (step S73). Then, in this state, the control unit 20 reproduces the foreign language voice data of the conversation portion read from the conversation practice DB stored in the storage unit 30 in step S4 (step S74), and causes the speaker 5 to utter. It has become like.

なお、以下のどの場合においても、制御部20は、上記の吹き出し画像の吹き出しの位置を、話者が交代するごとに、交代後の話者に対応するキャラクタの位置に変える。また、手を挙げるキャラクタを交代後の話者に対応するキャラクタに変えるようになっている。 In any of the following cases, the control unit 20 changes the position of the balloon of the balloon image to the position of the character corresponding to the speaker after the change every time the speaker changes. In addition, the character raising the hand is changed to the character corresponding to the speaker after the change.

これは、後述する録音が行われる際にも同様であり(後述する図9(B)参照)、録音が行われている話者(この場合は話者B)に対応するキャラクタから吹き出し画像が吹き出すように表示させ、また、録音が行われている話者に対応するキャラクタが手を挙げるように表示させるように表示の仕方を変える。本実施形態では、制御部20は、このようにして、現在行われている再生や録音が、どの話者の順番で行われているかを識別表示させるようになっている。 This also applies when the recording described later is performed (see FIG. 9B described later), and the balloon image is generated from the character corresponding to the speaker (in this case, speaker B) in which the recording is performed. The display method is changed so that the character is displayed as if it is blown out, and the character corresponding to the speaker who is recording is displayed as if raising his / her hand. In this embodiment, the control unit 20 is configured to identify and display in which speaker order the playback or recording currently being performed is performed in this way.

また、以下の説明においても同様であるが、再生や録音がどの話者の順番で行われているかを識別表示させる方法としては、図9(A)、(B)等に示すように、録音や音声データの再生が行われている話者に対応するキャラクタが手を挙げるように表示させる方法に限定されず、これ以外にも、例えば、録音や再生が行われている話者に対応するキャラクタを、他の会話していない話者に対応するキャラクタよりも大きく表示させたり、色を変えて表示するように構成することも可能である。 Further, the same applies to the following description, but as a method of identifying and displaying in which speaker order the playback or recording is performed, as shown in FIGS. 9A and 9B, recording is performed. It is not limited to the method of displaying the character corresponding to the speaker who is playing the voice data or the voice data so as to raise his / her hand, and other than this, for example, it corresponds to the speaker who is recording or playing the voice data. It is also possible to make the character appear larger than the character corresponding to another non-conversing speaker, or to display it in a different color.

このように、本実施形態では、制御部20は、録音や音声データの再生が行われている話者に対応するキャラクタを、会話していない状態での表示の仕方とは異なる態様でディスプレイ2上に表示させることで、どの話者の順番であるかを識別表示させるようになっている。 As described above, in the present embodiment, the control unit 20 displays the character corresponding to the speaker whose recording or voice data is being reproduced in a manner different from the display method in the non-conversation state. By displaying it on the top, it is possible to identify and display which speaker's turn it is.

一方、制御部20は、ステップS71でSTEP3であると判断した場合(ステップS71;Yes)には、現在の話者Aの外国語及び日本語テキストを表示させないパターンを選択する(図11(A)参照)。 On the other hand, when the control unit 20 determines in step S71 that it is STEP3 (step S71; Yes), the control unit 20 selects a pattern that does not display the foreign language and Japanese text of the current speaker A (FIG. 11 (A)). )reference).

そして、制御部20は、図11(A)に示すように、外国人の話者Aが話している内容すなわち再生させている外国語の音声データに対応する外国語テキストを表示させないようにするために、その部分を網掛け等のマスク表示体で隠すように表示させる。また、図11(A)に示すように、それに対応する日本語テキストも表示させず網掛け等で隠して表示させる(ステップS75)。 Then, as shown in FIG. 11A, the control unit 20 prevents the foreign language text corresponding to the content spoken by the foreign speaker A, that is, the voice data of the foreign language being reproduced, from being displayed. Therefore, the part is displayed so as to be hidden by a mask display body such as shading. Further, as shown in FIG. 11A, the corresponding Japanese text is not displayed but is hidden by shading or the like (step S75).

そして、制御部20は、上記のように吹き出し画像の吹き出し位置を話者Aに対応するキャラクタの位置に変え、話者Aの会話部分が再生中であることを表すようにキャラクタを表示させて(ステップS73)、当該会話部分の外国語の音声データを再生させて(ステップS74)スピーカ5から発声させる。 Then, the control unit 20 changes the balloon position of the balloon image to the position of the character corresponding to the speaker A as described above, and displays the character so as to indicate that the conversation part of the speaker A is being played. (Step S73), the voice data of the foreign language of the conversation part is reproduced (step S74), and the voice is uttered from the speaker 5.

このように構成することで、ユーザがSTEP3を選択した場合、ディスプレイ2上に外国語テキスト等が表示されなくなるため、ユーザは、再生される音声データを聞き取って話者Aが話した内容(英語)を理解することが必要となり、外国語会話能力をさらに向上させることが可能となる。 With this configuration, when the user selects STEP3, the foreign language text or the like is not displayed on the display 2, so that the user listens to the reproduced voice data and the content spoken by the speaker A (English). ) Will be required, and it will be possible to further improve foreign language conversation ability.

制御部20は、以上のようにして、再生モード(図5のステップS7)を実行して終了すると、選択されたコンテンツに次の会話部分があるか否かを判断する(ステップS8)。この場合、次の話者Bの会話部分があるため(ステップS8;Yes)、制御部20は、ステップS4の処理に戻り、記憶部30に記憶されている会話練習DBから、このコンテンツにおける各話者の各会話部分のうち、次に話す話者Bの会話部分の外国語テキストと日本語テキストと外国語の音声データとを読み出す(ステップS4)。 When the control unit 20 executes the playback mode (step S7 in FIG. 5) and ends as described above, the control unit 20 determines whether or not the selected content has the next conversation part (step S8). In this case, since there is a conversation part of the next speaker B (step S8; Yes), the control unit 20 returns to the process of step S4, and from the conversation practice DB stored in the storage unit 30, each of the contents in this content. Of each conversation part of the speaker, the foreign language text, the Japanese text, and the voice data of the foreign language of the conversation part of the speaker B who speaks next are read out (step S4).

そして、制御部20は、次はユーザの番であるから(ステップS5;Yes)、すなわち次はユーザが指定した話者Bの会話の順番であるから、録音モードに移行する(ステップS6)。そして、前述したように、ユーザにより指定された話者Bの会話部分では音声データの再生を行わせずに録音を行わせる。以下、図7のフローチャートに従って録音モード(ステップS6)について説明する。 Then, the control unit 20 shifts to the recording mode because it is the user's turn (step S5; Yes), that is, the next is the conversation order of the speaker B specified by the user (step S6). Then, as described above, the conversation portion of the speaker B designated by the user is recorded without reproducing the voice data. Hereinafter, the recording mode (step S6) will be described according to the flowchart of FIG. 7.

制御部20は、録音モード(ステップS6)では、ユーザにより選択されたSTEPがSTEP1である場合には、図9(B)に示すようにディスプレイ2上に自分が発声する外国語テキストとその意味を示す日本語テキストを表示させるが、ユーザにより選択されたSTEPがSTEP2やSTEP3である場合には、図10(B)や図11(B)に示すようにディスプレイ2上に外国語テキストを表示させず、その部分を網掛けで隠すように表示させる。 In the recording mode (step S6), when the STEP selected by the user is STEP 1, the control unit 20 describes the foreign language text that it utters on the display 2 and its meaning as shown in FIG. 9 (B). However, when the STEP selected by the user is STEP2 or STEP3, the foreign language text is displayed on the display 2 as shown in FIGS. 10 (B) and 11 (B). Instead, display the part so that it is hidden by shading.

なお、その際、日本語テキストも網掛けで隠してしまうと、話者Aに対してどのような内容を答えればよいかが分からなくなってしまうため、本実施形態では、図10(B)や図11(B)に示すように、日本語テキストは表示されるようになっている。日本語テキストも網掛けで隠すように表示させることも可能である。 At that time, if the Japanese text is also hidden by shading, it becomes difficult to know what kind of content should be answered to the speaker A. Therefore, in the present embodiment, FIG. 10 (B) and FIG. As shown in 11 (B), Japanese text is displayed. It is also possible to display Japanese text so that it is hidden by shading.

上記のように、ユーザにより選択されたSTEPにより外国語テキストの表示のさせ方が変わるため、制御部20は、録音モードでは、まず、ユーザにより選択されたSTEPがSTEP1であるか否かを判断する(図7のステップS61)。 As described above, since the method of displaying the foreign language text changes depending on the STEP selected by the user, the control unit 20 first determines whether or not the STEP selected by the user is STEP 1 in the recording mode. (Step S61 in FIG. 7).

そして、制御部20は、選択されたSTEPがSTEP1であれば(ステップS61;Yes)、図9(B)に示すように、外国語テキストと日本語テキストの両方を表示させるパターンを選択する(ステップS62)。また、選択されたSTEPがSTEP2やSTEP3であれば(ステップS61;No)、図10(B)や図11(B)に示すように、外国語テキストを表示せず網掛けで隠して表示させるパターンを選択する(ステップS63)。 Then, if the selected STEP is STEP 1 (step S61; Yes), the control unit 20 selects a pattern for displaying both the foreign language text and the Japanese text as shown in FIG. 9 (B) (step S61; Yes). Step S62). If the selected STEP is STEP2 or STEP3 (step S61; No), the foreign language text is not displayed but hidden by shading as shown in FIGS. 10 (B) and 11 (B). Select a pattern (step S63).

そして、今は話者Bの会話部分を示す番であるから、図9(B)や図10(B)、図11(B)に示すように、上記の外国語テキストを話者B(すなわちユーザ)が発声することを表すために、制御部20は、外国語テキスト等の表示部分を、話者Bに対応するキャラクタからの吹き出し画像として表示させる(ステップS64)。また、制御部20は、図9(B)等に示すように、話者Bに対応するキャラクタが手を挙げているように表示させて、話者Bの会話部分が録音されることを表すようにキャラクタを表示させる(ステップS73)。 And now, since it is the turn to show the conversation part of the speaker B, as shown in FIGS. 9 (B), 10 (B), and 11 (B), the above foreign language text is applied to the speaker B (that is, that is). In order to indicate that the user) utters, the control unit 20 displays a display portion such as a foreign language text as a balloon image from the character corresponding to the speaker B (step S64). Further, as shown in FIG. 9B and the like, the control unit 20 displays the character corresponding to the speaker B as if raising his / her hand, indicating that the conversation part of the speaker B is recorded. The character is displayed as shown in (step S73).

さらに、制御部20は、図9(B)等に示すように、ディスプレイ2の下方に、例えば「録音中」等と表示させて(ステップS64)ユーザが発声する音声を録音中であることを表す。そして、制御部20は、この状態で、ユーザが発声する音声をマイクロフォン4(図1参照)で録音する録音処理を開始する(ステップS65)。ユーザは、図8(D)に示したタイトル画面の下方に記載された「Bの番でマイクに向かって話しましょう」等の記載を読んでいるため、話者Bの番になった時点でマイクロフォン4に向かって外国語を発声する。 Further, as shown in FIG. 9B or the like, the control unit 20 displays, for example, “recording” or the like below the display 2 (step S64), and indicates that the voice uttered by the user is being recorded. Represent. Then, in this state, the control unit 20 starts a recording process of recording the voice uttered by the user with the microphone 4 (see FIG. 1) (step S65). Since the user is reading the description such as "Let's talk into the microphone at turn B" at the bottom of the title screen shown in FIG. 8 (D), when it is the turn of speaker B, Speak a foreign language into the microphone 4.

制御部20は、上記のようにして録音を開始すると同時に、図9(B)等に示すように、ディスプレイ2の下方に、録音時間をバーで表すインジケータを表示させる(ステップS66)。そして、インジケータの左側に「0:00」と表示させ、右側に「0:15」と表示させて、予め設定された録音時間が15秒間であることをユーザに知らせる。 At the same time that the control unit 20 starts recording as described above, as shown in FIG. 9B and the like, an indicator indicating the recording time by a bar is displayed below the display 2 (step S66). Then, "0:00" is displayed on the left side of the indicator and "0:15" is displayed on the right side to inform the user that the preset recording time is 15 seconds.

また、それと同時に、録音開始と同時に「0:00」側すなわちインジケータの左端側からバーの延出を開始し、録音開始から15秒が経過した時点で「0:15」側すなわちインジケータの右端側にバーの先端が到達するようにバーを延ばしていくように表示させて、録音開始からの経過時間をユーザに知らせる。 At the same time, the bar starts to extend from the "0:00" side, that is, the left end side of the indicator at the same time as the recording starts, and when 15 seconds have passed from the start of recording, the "0:15" side, that is, the right end side of the indicator. Displays that the bar is extended so that the tip of the bar reaches the user, and informs the user of the elapsed time from the start of recording.

そして、制御部20は、例えば録音を開始してから予め設定された録音時間(例えば15秒)が経過してしまいタイムオーバーになった場合は(ステップS67;Yes)、制御部20は、録音された音声を、前述した録音データ(図3参照)としてRAM40に記憶させて、録音モード(ステップS6)を終了する。 Then, when, for example, a preset recording time (for example, 15 seconds) has elapsed from the start of recording and the time is over (step S67; Yes), the control unit 20 records. The recorded voice is stored in the RAM 40 as the recording data (see FIG. 3) described above, and the recording mode (step S6) is terminated.

また、制御部20は、例えばインジケータの下方に、録音を停止する場合には決定キー3b(図1参照)を押下する旨を表示させる。そして、録音を開始した後、予め設定された録音時間(例えば15秒)が経過する前に、ユーザにより決定キー3bが押下され録音を停止する操作がなされた場合には、その時点で録音を停止するようになっている。 Further, the control unit 20 displays, for example, below the indicator that the determination key 3b (see FIG. 1) is pressed when recording is stopped. Then, if the user presses the enter key 3b to stop the recording before the preset recording time (for example, 15 seconds) elapses after the recording is started, the recording is started at that time. It is supposed to stop.

そして、制御部20は、このように、ユーザにより録音中に決定キー3bが押下され、録音を停止する操作がなされた場合も(ステップS67;No、ステップS68;Yes)、ユーザが発声して録音された音声を前述した録音データ(図3参照)としてRAM40に記憶させて、録音モード(ステップS6)を終了するようになっている。 Then, even when the enter key 3b is pressed by the user during recording and the operation to stop the recording is performed in the control unit 20 (step S67; No, step S68; Yes), the user speaks. The recorded voice is stored in the RAM 40 as the above-mentioned recorded data (see FIG. 3), and the recording mode (step S6) is terminated.

予め設定した録音時間が経過しないと録音が終了しないように構成すると、予め設定した録音時間より短い時間でユーザが外国語を発声し終わった場合に、ユーザの発声後に無言の時間ができてしまい、会話が不自然になる可能性があるが、上記のように、ユーザが発声を終了した時点で録音を停止することができるように構成することで、不要な無言の時間が生じなくなり、会話を自然に行っている印象を与えることが可能となる。 If the recording is configured so that the recording does not end until the preset recording time has elapsed, if the user finishes uttering a foreign language in a time shorter than the preset recording time, there will be a silent time after the user utters. , The conversation may be unnatural, but as mentioned above, by configuring so that the recording can be stopped when the user finishes speaking, unnecessary silent time will not occur and the conversation will be done. It is possible to give the impression that you are doing this naturally.

このようにして、録音モードを終了すると、制御部20は、選択されたコンテンツに次の会話部分があるか否かを判断し(図5のステップS8)、次の話者Aの会話部分があれば(ステップS8;Yes)、上記と同様にステップS4の処理から各処理を繰り返して行い、話者Aの会話部分では再生モード(ステップS7)が選択されて、例えば図9(C)に示すように、話者Aの会話部分の表示や音声データの再生がなされる。 When the recording mode is terminated in this way, the control unit 20 determines whether or not the selected content has the next conversation part (step S8 in FIG. 5), and the conversation part of the next speaker A is changed. If there is (step S8; Yes), each process is repeated from the process of step S4 in the same manner as above, and the playback mode (step S7) is selected in the conversation part of the speaker A, for example, in FIG. 9 (C). As shown, the conversation part of the speaker A is displayed and the voice data is reproduced.

一方、制御部20は、以上のようにして、ユーザにより選択されたコンテンツの各話者A、Bの会話部分の再生や録音が全て終了すると(ステップS8;No)、会話練習を終了して、ユーザが復習等を行うためのメニューを表示する(ステップS9)。ユーザはこのメニューから所望の項目を選択することで、録音データを再生するか、お手本の音声データを再生するか等の指定ができるようになっている。そして、制御部90は、ユーザにより指定がなされるとその指定に応じた処理を行う。 On the other hand, when the control unit 20 finishes playing and recording all the conversation parts of the speakers A and B of the content selected by the user as described above (step S8; No), the control unit 20 finishes the conversation practice. , Display a menu for the user to review or the like (step S9). By selecting a desired item from this menu, the user can specify whether to play the recorded data or the model voice data. Then, when the user makes a designation, the control unit 90 performs processing according to the designation.

具体的には、制御部20は、上記のようにして行った会話練習が終了すると、図9(D)に示すように、ディスプレイ2上にコンテンツのタイトル等を表示させるとともに、ディスプレイ2の下方に、復習等のためのメニューを表示する。具体的なメニューとしては、ユーザが録音した自分の外国語の発音を聞くこと(図中の「録音を聞く」参照)や、ネイティブの発音を聞くこと(図中の「お手本を聞く」参照)、或いはもう一度録音をし直すこと(図中の「もう一度録音」参照)等を表示させる。 Specifically, when the conversation practice performed as described above is completed, the control unit 20 displays the title of the content on the display 2 and lowers the display 2 as shown in FIG. 9D. Display a menu for review etc. Specific menus include listening to the pronunciation of your own foreign language recorded by the user (see "Listen to the recording" in the figure) and listening to the native pronunciation (see "Listen to the model" in the figure). Or, display that recording is to be performed again (see "Recording again" in the figure).

なお、図9(D)では、ユーザが各項目をタッチすることで指定する場合が示されているが、例えば各項目にA、B、…等を表示させ、そのA、B、…等に対応する文字キー3a(図1参照)を押下することで指定することができるように構成することも可能である。 Note that FIG. 9D shows a case where the user touches each item to specify the item. For example, A, B, ... Etc. are displayed on each item, and the A, B, ... Etc. are displayed. It is also possible to configure it so that it can be specified by pressing the corresponding character key 3a (see FIG. 1).

制御部20は、録音を聞くことが指定された場合には(ステップS11)、上記と同様にして、記憶部30に記憶されている会話練習DBから話者A、Bの外国語テキストと日本語テキストとを読み出して、図9(A)〜(C)に示したように、ディスプレイ2上に外国語テキストや日本語テキスト、吹き出し画像、キャラクタ、アイコン等を表示させる。そして、話者Aの会話部分では会話練習DBから読み出した外国語の音声データを再生させ、話者Bの会話部分ではRAM40に記憶させたユーザの録音データを読み出して再生させて、それぞれスピーカ5(図1参照)から発声させる。 When it is specified to listen to the recording (step S11), the control unit 20 uses the foreign language texts of the speakers A and B and Japanese from the conversation practice DB stored in the storage unit 30 in the same manner as described above. The word text is read out, and as shown in FIGS. 9A to 9C, a foreign language text, a Japanese text, a balloon image, a character, an icon, or the like is displayed on the display 2. Then, in the conversation part of the speaker A, the voice data of the foreign language read from the conversation practice DB is reproduced, and in the conversation part of the speaker B, the recorded data of the user stored in the RAM 40 is read out and reproduced, and each speaker 5 Speak from (see Fig. 1).

このようにして、音声データと録音データとを交互に再生させて発声させることで、ユーザは、自分の発音を聞き直して、発音が正しく行われたかや、話者Aとの会話が成立しているか等をチェックすることが可能となる。 In this way, by alternately playing back the voice data and the recorded data and uttering the voice, the user re-listens to his / her own pronunciation, and whether the pronunciation is correct or a conversation with the speaker A is established. It is possible to check whether or not it is.

また、制御部20は、お手本を聞くことが指定された場合には(ステップS12)、上記と同様にして、記憶部30に記憶されている会話練習DBから話者A、Bの外国語テキストと日本語テキストと外国語の音声データを読み出して、図9(A)〜(C)に示したように、ディスプレイ2上に外国語テキストや日本語テキスト等を表示させながら、話者A、Bの両方について外国語の音声データを再生させてスピーカ5から発声させる。 Further, when it is specified to listen to the model (step S12), the control unit 20 uses the conversation practice DB stored in the storage unit 30 to read the foreign language texts of the speakers A and B in the same manner as described above. And the Japanese text and the voice data of the foreign language are read out, and as shown in FIGS. 9A to 9C, the speaker A, while displaying the foreign language text, the Japanese text, etc. on the display 2. Foreign language voice data is reproduced for both B and uttered from the speaker 5.

このようにして、ネイティブの外国語の音声データを再生させて発声させることで、ユーザは、正しい発音を確認したり、自分の発音と聞き比べる等して、発音を的確に修正したり、話者Aとの会話が成立するためにはどのように発音すればよかったのか等をチェックすることが可能となる。 In this way, by playing back the voice data of the native foreign language and uttering it, the user can confirm the correct pronunciation, compare it with his / her own pronunciation, and correct the pronunciation accurately. It is possible to check how the pronunciation should have been made in order for the conversation with the person A to be established.

また、制御部20は、もう一度録音が指定された場合には(ステップS13)、上記のステップS4以降の各処理をやり直して、ユーザが発声する音声を録音し直す。そして、制御部20は、ユーザにより図9(D)に画面に示したメニューの中から「終了する」が選択された場合には(ステップS10;Yes)、会話学習を終了させる。 Further, when recording is specified again (step S13), the control unit 20 re-records the voice uttered by the user by re-doing each process after step S4. Then, when the user selects "End" from the menu shown on the screen in FIG. 9D, the control unit 20 ends the conversation learning (step S10; Yes).

[効果]
以上のように、本実施形態に係る電子機器1やプログラムによれば、ユーザにより指定された一の話者(上記の場合は話者B)以外の話者(話者A)の会話部分では音声データの再生を行わせるが、指定された一の話者(話者B)の会話部分では音声データの再生を行わせずに録音を行うため、ユーザが外国語での会話を練習する際に、自分のパートでは外国語が再生されない。
[effect]
As described above, according to the electronic device 1 and the program according to the present embodiment, the conversation part of the speaker (speaker A) other than one speaker (speaker B in the above case) designated by the user When the user practices conversation in a foreign language, the voice data is played back, but the conversation part of the specified speaker (speaker B) is recorded without playing back the voice data. In addition, foreign languages are not played in my part.

そのため、ユーザが、再生されている外国語を口真似してしまう状態にはならず、ユーザが自ら思考して会話することが可能となり、ユーザの外国語の発音と会話の練習効果を的確に向上させることが可能となる。 Therefore, the user does not have to imitate the foreign language being played, and the user can think and talk by himself / herself, and the pronunciation of the foreign language of the user and the practice effect of the conversation are accurately improved. It becomes possible to make it.

また、ユーザが自分の発声を録音した後で、自分の発音を聞き直したり、ネイティブの発音と聞き比べたりすることが可能となるため、ユーザの外国語の発音と会話の練習効果をさらに向上させることが可能となる。 In addition, after the user records his / her own utterance, he / she can re-listen to his / her own pronunciation and compare it with the native pronunciation, further improving the user's foreign language pronunciation and conversation practice effect. It becomes possible to make it.

[変形例1]
なお、上記の実施形態では、ユーザに自分の外国語能力のレベルに相当するSTEPを選択させた(図5のステップS1参照)。しかし、例えば、制御部20が、会話学習の練習の回数に応じてSTEPを自動的に設定するように構成することも可能である。この場合は、制御部20は、図5に示したフローチャートに代えて、図12に示すフローチャートに従って各処理を行うように構成される。
[Modification 1]
In the above embodiment, the user is made to select a STEP corresponding to his / her foreign language ability level (see step S1 in FIG. 5). However, for example, the control unit 20 can be configured to automatically set STEP according to the number of conversation learning exercises. In this case, the control unit 20 is configured to perform each process according to the flowchart shown in FIG. 12 instead of the flowchart shown in FIG.

具体的には、制御部20は、図5のフローチャートでは、録音を聞き直したり(ステップS11)、お手本を聞いたり(ステップS12)したり、或いはもう一度録音(ステップS13)した後、ユーザにより図9(D)に画面に示したメニューの中から「終了する」が選択された場合には(ステップS10;Yes)、会話学習をすぐに終了させるように構成されていた。 Specifically, in the flowchart of FIG. 5, the control unit 20 re-listens to the recording (step S11), listens to a model (step S12), or records again (step S13), and then the user views the control unit 20. When "End" was selected from the menu shown on the screen in 9 (D) (step S10; Yes), the conversation learning was configured to end immediately.

しかし、この変形例では、制御部20は、会話学習の練習の回数(すなわち上記のステップS10で「終了する」が選択された回数に等しい。)をカウントするように構成されており、上記のようにステップS11〜13の処理を行う等した後(なお図12ではステップS11〜13の各処理の図示が省略されている。)、ユーザにより「終了する」が選択された場合(ステップS10;Yes)、制御部20は、練習回数を1だけインクリメント(ステップS23)してメモリに保存させた後、会話学習を終了させる。 However, in this modification, the control unit 20 is configured to count the number of conversation learning exercises (that is, the number of times "finished" is selected in step S10 above). After performing the processes of steps S11 to 13 as described above (note that the illustration of each process of steps S11 to 13 is omitted in FIG. 12), when "end" is selected by the user (step S10; Yes), the control unit 20 increments the number of exercises by 1 (step S23), stores it in the memory, and then ends the conversation learning.

そして、外国語の会話学習を開始されると、制御部20は、図5のフローチャートでは、ユーザに外国語能力のレベルに相当するSTEPを選択させた後(ステップS1)、会話の場面であるコンテンツを選択させたが(ステップS2)、この変形例では、図12のフローチャートに示すように、ユーザによりSTEPを選択させずに、ユーザにコンテンツを選択させた後(ステップS2)、メモリに保存させた上記の練習回数を読み出し(ステップS21)、練習回数に応じて外国語能力のレベルに相当するSTEPを制御部20が自動的に設定する(ステップS22)ようになっている。 Then, when the foreign language conversation learning is started, the control unit 20 causes the user to select a STEP corresponding to the level of the foreign language ability in the flowchart of FIG. 5 (step S1), and then is a conversation scene. Although the content was selected (step S2), in this modified example, as shown in the flowchart of FIG. 12, the user is allowed to select the content without selecting STEP, and then the content is saved in the memory (step S2). The above-mentioned number of exercises is read out (step S21), and the control unit 20 automatically sets a STEP corresponding to the level of foreign language ability according to the number of exercises (step S22).

なお、制御部20がSTEPを自動的に設定(ステップS22)した後は、図5のフローチャートで説明したステップS3〜S9(図6のステップS71〜S74や図7のステップS61〜S68を含む。)と同様の各処理を行うように構成され、ユーザにより「終了する」が選択された時点で(ステップS10;Yes)、制御部20は、再度、練習回数を1だけインクリメントさせて(ステップS23)、会話学習を終了させる。 After the control unit 20 automatically sets STEP (step S22), steps S3 to S9 (steps S71 to S74 in FIG. 6 and steps S61 to S68 in FIG. 7) described in the flowchart of FIG. 5 are included. ), And when "finish" is selected by the user (step S10; Yes), the control unit 20 again increments the number of exercises by 1 (step S23). ), End conversation learning.

また、制御部20が練習回数に応じてSTEPを設定する方法としては、例えば、練習回数が0〜9回の場合はSTEP1、10〜19回の場合はSTEP2、20回以上の場合はSTEP3のように設定することが可能であるが、この方法に限定されない。また、ユーザが練習回数をリセットすることができるように構成することも可能である。 As a method for the control unit 20 to set STEP according to the number of exercises, for example, STEP1 when the number of exercises is 0 to 9, STEP2 when the number of exercises is 10 to 19, and STEP3 when the number of exercises is 20 or more. However, the method is not limited to this method. It can also be configured so that the user can reset the number of exercises.

このように構成すれば、ユーザが会話学習の練習を重ねるごとに練習回数が増加していくため、練習を重ねることで外国語能力のレベルを表すSTEPが自動的に上がっていくようになる。そのため、練習を重ねており外国語能力が向上しているにも関わらずなかなか上のレベルすなわち高いSTEPを選択しようとしないユーザに対し、半ば強制的にSTEPを上げることで、より高いSTEPに挑戦させることが可能となり、ユーザの外国語能力をより向上させることが可能となる。 With this configuration, the number of exercises increases each time the user practices conversation learning, so the STEP that indicates the level of foreign language ability automatically increases as the user practices. Therefore, for users who are practicing and improving their foreign language ability but do not try to select a higher level, that is, a higher STEP, try to raise the STEP semi-forcedly to challenge a higher STEP. It becomes possible to improve the foreign language ability of the user.

[変形例2]
また、上記の実施形態では、ユーザが自分の発声を録音することができる録音時間が例えば15秒に予め設定されている場合について説明したが、例えば上記のように練習回数をカウントするように構成し、練習回数が増加するに従って、この録音時間を短くしていくように構成することも可能である。
[Modification 2]
Further, in the above embodiment, the case where the recording time during which the user can record his / her own utterance is set in advance to, for example, 15 seconds has been described, but for example, the number of exercises is counted as described above. However, it is also possible to configure the recording time to be shortened as the number of exercises increases.

このように構成すれば、練習回数が増すに従って、ユーザはより速く外国語を発音することが要求されるようになり、上記のようにユーザの外国語の発音と会話の練習効果を向上させることが可能となると同時に、よりネイティブに近いスピードで外国語を発音することができるようになり、ユーザの外国語能力をより向上させることが可能となる。 With this configuration, as the number of exercises increases, the user is required to pronounce the foreign language faster, and as described above, the effect of the user's pronunciation of the foreign language and the practice effect of the conversation can be improved. At the same time, it becomes possible to pronounce a foreign language at a speed closer to that of a native speaker, and it becomes possible to further improve the foreign language ability of the user.

以上、本発明の実施形態を説明したが、本発明の範囲は、上記の実施形態等に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
複数の話者が交互に発話する会話のテキストおよび当該テキストに対応する音声データを記憶している記憶部と、
前記複数の話者のうちの一の話者を指定させる話者指定手段と、
前記話者指定手段により指定された前記一の話者及び前記一の話者以外の他の話者のいずれか一方の会話部分では前記記憶部に記憶されている音声データの再生を音声出力部に行わせ、前記一の話者及び前記一の話者以外の他の話者のいずれか他方の会話部分では前記音声の再生を行わせずに音声入力部から入力されるユーザが発声した音声の録音を行うように制御する再生録音制御手段と、
前記再生および録音の終了後に、前記録音した音声データか、前記録音した音声データに対応する会話部分として前記記憶部に記憶されている音声データの何れを再生するかの指定を行わせる指定手段と、
前記指定に応じた音声データを前記音声出力部にて再生させる再生手段と、
を備えることを特徴とする電子機器。
<請求項2>
前記再生録音制御手段は、前記録音を開始した後、予め設定された録音時間が経過する前に、ユーザにより前記録音を停止する操作がなされた場合には、その時点で前記録音を停止することを特徴とする請求項1に記載の電子機器。
<請求項3>
前記テキストは、前記音声に対応する第1言語のテキストと、その意味を示す、第2言語のテキストとを備え、
ユーザにより選択されたレベルに応じて、前記各話者の会話部分について、前記第1言語のテキストと前記第2言語のテキストをディスプレイ上に表示させるか否かを制御する表示制御手段を備えることを特徴とする請求項1または請求項2に記載の電子機器。
<請求項4>
前記記憶部には、前記複数の話者についてそれぞれ、前記会話部分ごとに、前記音声データと、前記第1言語のテキストと、前記第2言語のテキストとが記憶されていることを特徴とする請求項3に記載の電子機器。
<請求項5>
前記再生および録音の際に複数の話者に対応する複数のキャラクタを表示させ、どの話者の順番であるかを識別表示させる識別表示手段を備えることを特徴とする請求項1から請求項4のいずれか一項に記載の電子機器。
<請求項6>
前記再生手段が前記指定に応じた音声を再生させて行った会話学習の練習の回数をカウントするカウント手段と、
前記カウント手段によりカウントされた前記練習の回数に応じてレベルを自動的に設定するレベル設定手段と、
を備えることを特徴とする請求項1から請求項5のいずれか一項に記載の電子機器。
<請求項7>
複数の話者が交互に発話する会話のテキストおよび当該テキストに対応する音声データを記憶している記憶部を備えたコンピュータを、
前記複数の話者のうちの一の話者を指定させる話者指定手段と、
前記話者指定手段により指定された前記一の話者及び前記一の話者以外の他の話者のいずれか一方の会話部分では前記記憶部に記憶されている音声データの再生を音声出力部に行わせ、前記一の話者及び前記一の話者以外の他の話者のいずれか他方の会話部分では前記音声の再生を行わせずに音声入力部から入力されるユーザが発声した音声の録音を行うように制御する再生録音制御手段と、
前記再生および録音の終了後に、前記録音した音声データか、前記録音した音声データに対応する会話部分として前記記憶部に記憶されている音声データの何れを再生するかの指定を行わせる指定手段と、
前記指定に応じた音声データを前記音声出力部にて再生させる再生手段、
として機能させるためのプログラム。
Although the embodiments of the present invention have been described above, the scope of the present invention is not limited to the above-described embodiments and the like, but includes the scope of the invention described in the claims and the equivalent scope thereof.
The inventions described in the claims originally attached to the application of this application are added below. The claims in the appendix are as specified in the claims originally attached to the application for this application.
[Additional Notes]
<Claim 1>
A storage unit that stores conversation texts spoken by multiple speakers and voice data corresponding to the texts.
A speaker designation means for designating one of the plurality of speakers, and
In the conversation portion of either the one speaker designated by the speaker designation means and the other speaker other than the one speaker, the voice output unit reproduces the voice data stored in the storage unit. The voice uttered by the user input from the voice input unit without reproducing the voice in the conversation part of any one of the one speaker and the other speakers other than the one speaker. Playback recording control means that controls the recording of
As a designation means for designating whether to reproduce the recorded voice data or the voice data stored in the storage unit as a conversation part corresponding to the recorded voice data after the reproduction and recording are completed. ,
A reproduction means for reproducing audio data according to the designation in the audio output unit, and
An electronic device characterized by being equipped with.
<Claim 2>
If the user performs an operation to stop the recording after the start of the recording and before the preset recording time elapses, the reproduction / recording control means stops the recording at that time. The electronic device according to claim 1.
<Claim 3>
The text includes a text in a first language corresponding to the voice and a text in a second language indicating its meaning.
A display control means for controlling whether or not to display the text of the first language and the text of the second language on the display for the conversation part of each speaker according to the level selected by the user is provided. The electronic device according to claim 1 or 2, wherein the electronic device is characterized by.
<Claim 4>
The storage unit is characterized in that the voice data, the text of the first language, and the text of the second language are stored for each of the conversation portions of the plurality of speakers. The electronic device according to claim 3.
<Claim 5>
Claims 1 to 4 include an identification display means for displaying a plurality of characters corresponding to a plurality of speakers during the reproduction and recording, and for identifying and displaying which speaker's turn. The electronic device according to any one of the above.
<Claim 6>
A counting means for counting the number of conversation learning exercises performed by the playing means by reproducing the voice according to the designation, and a counting means.
A level setting means that automatically sets the level according to the number of exercises counted by the counting means, and a level setting means.
The electronic device according to any one of claims 1 to 5, wherein the electronic device is provided with.
<Claim 7>
A computer equipped with a storage unit that stores conversation texts spoken by multiple speakers and voice data corresponding to the texts.
A speaker designation means for designating one of the plurality of speakers, and
In the conversation portion of either the one speaker designated by the speaker designation means and the other speaker other than the one speaker, the voice output unit reproduces the voice data stored in the storage unit. The voice uttered by the user input from the voice input unit without reproducing the voice in the conversation part of any one of the one speaker and the other speakers other than the one speaker. Playback recording control means that controls the recording of
As a designation means for designating whether to reproduce the recorded voice data or the voice data stored in the storage unit as a conversation part corresponding to the recorded voice data after the reproduction and recording are completed. ,
A reproduction means for reproducing audio data according to the designation in the audio output unit,
A program to function as.

1、101 電子機器
2 ディスプレイ
14 音声入力部
15 音声出力部
20 制御部(話者指定手段、再生録音制御手段、指定手段、再生手段、表示制御手段、
識別表示手段、カウント手段、レベル設定手段)
30 記憶部
A 一の話者以外の話者
B 一の話者
STEP レベル
1, 101 Electronic device 2 Display 14 Audio input unit 15 Audio output unit 20 Control unit (speaker designation means, playback / recording control means, designation means, playback means, display control means,
Identification display means, counting means, level setting means)
30 Memory A Speakers other than one speaker B One speaker STEP level

Claims (8)

第1話者と第2話者を含む複数の話者が交互に発話する会話を対象とした学習において、前記第1話者の発話部分に対応する第1言語の音声データを前記会話の進行に合わせて再生する第1再生制御手段と、
前記第2話者の発話部分に対応してユーザが発声した前記第1言語による音声の音声データを、前記第1再生制御手段により再生される前記会話の進行に合わせて録音する録音制御手段と、
前記録音制御手段により録音した前記ユーザの音声データを再生する第2再生制御手段と、
前記第1話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語と前記第2言語の両方のテキストを非表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第1判断手段と、
前記第2話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語のテキストを非表示にして前記第2言語のテキストを表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第2判断手段と、
前記第1判断手段および前記第2判断手段の判断結果に応じて、前記第1話者の発話部分に対応する前記第1言語または前記第2言語のテキストと、前記第2話者の発話部分に対応する前記第1言語または前記第2言語のテキストを、前記第1再生制御手段により再生される前記会話の進行に合わせて表示する制御を行う表示制御手段と、
を備える電子機器。
In learning for conversations in which a plurality of speakers including the first speaker and the second speaker alternately speak, the progress of the conversation is performed by using the voice data of the first language corresponding to the uttered portion of the first speaker. The first playback control means that reproduces according to
A recording control means for recording the voice data of the voice in the first language uttered by the user corresponding to the utterance portion of the second speaker in accordance with the progress of the conversation reproduced by the first playback control means. ,
A second reproduction control means for reproducing the voice data of the user recorded by the recording control means, and
When displaying the text corresponding to the utterance portion of the first speaker, the texts of both the first language and the second language are displayed, or the texts of both the first language and the second language are not displayed. A first determination means for determining whether to display based on a level selected corresponding to the user, and
When displaying the text corresponding to the utterance portion of the second speaker, the text in both the first language and the second language is displayed, or the text in the first language is hidden and the second language is displayed. A second judgment means for judging whether to display the text of the above based on the level selected corresponding to the user, and
Depending on the determination results of the first determination means and the second determination means, the text of the first language or the second language corresponding to the utterance portion of the first speaker and the utterance portion of the second speaker. A display control means for controlling the display of the text in the first language or the second language corresponding to the above in accordance with the progress of the conversation reproduced by the first reproduction control means.
Electronic equipment equipped with.
複数の話者が交互に発話する会話の前記第1言語のテキスト、前記テキストに対応する前記第1言語の音声データおよび前記テキストの意味を示す前記第2言語のテキストを記憶している記憶部と、
前記複数の話者のうちのいずれの話者を前記第2話者とするかを選択する選択手段と、
を備える請求項1に記載の電子機器。
A storage unit that stores the text of the first language of a conversation spoken by a plurality of speakers alternately, the voice data of the first language corresponding to the text, and the text of the second language indicating the meaning of the text. When,
A selection means for selecting which of the plurality of speakers is to be the second speaker, and
The electronic device according to claim 1.
前記第1再生制御手段は、前記第2話者の発話部分に対応する前記第1言語の音声データは、前記会話の進行中に再生しないように制御する、
請求項2に記載の電子機器。
The first reproduction control means controls so that the voice data of the first language corresponding to the utterance portion of the second speaker is not reproduced during the progress of the conversation.
The electronic device according to claim 2.
前記会話の進行に合わせた前記再生および録音の終了後に、前記第2話者の発話部分に対応して録音されたユーザの音声データと、前記第2話者の発話部分に対応して前記記憶部に記憶されている前記第1言語の音声データの何れを再生するかの指定を行わせる指定手段を備え、
前記第2再生制御手段は、前記指定手段の指定に応じて、前記録音制御手段により録音したユーザの音声データまたは前記記憶部に記憶されている前記第1言語の音声データを再生する、
請求項2又は3に記載の電子機器。
After the end of the reproduction and recording in accordance with the progress of the conversation, the user's voice data recorded corresponding to the utterance portion of the second speaker and the memory corresponding to the utterance portion of the second speaker. It is provided with a designation means for designating which of the voice data of the first language stored in the unit is to be reproduced.
The second reproduction control means reproduces the user's voice data recorded by the recording control means or the voice data of the first language stored in the storage unit according to the designation of the designated means.
The electronic device according to claim 2 or 3.
前記ユーザに対応して選択されたレベルは、前記ユーザの外国語能力のレベルまたは前記ユーザの学習レベルである
請求項1乃至4のいずれか一項に記載の電子機器。
The level selected for the user is the level of the user's foreign language ability or the level of learning of the user .
The electronic device according to any one of claims 1 to 4.
前記第1再生制御手段が前記会話の音声データを再生させて行った学習の回数をカウントするカウント手段と、
前記カウント手段によりカウントされた前記学習の回数に応じて前記ユーザの学習レベルを設定する、
請求項5に記載の電子機器。
A counting means for counting the number of times of learning performed by the first reproduction control means by reproducing the voice data of the conversation, and
The learning level of the user is set according to the number of times of learning counted by the counting means.
The electronic device according to claim 5.
装置が、
第1話者と第2話者を含む複数の話者が交互に発話する会話を対象とした学習において、前記第1話者の発話部分に対応する第1言語の音声データを前記会話の進行に合わせて再生する第1再生制御処理と、
前記第2話者の発話部分に対応してユーザが発声した前記第1言語による音声の音声データを、前記第1再生制御処理により再生される前記会話の進行に合わせて録音する録音制御処理と、
前記録音制御処理により録音した前記ユーザの音声データを再生する第2再生制御処理と、
前記第1話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語と前記第2言語の両方のテキストを非表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第1判断処理と、
前記第2話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語のテキストを非表示にして前記第2言語のテキストを表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第2判断処理と、
前記第1判断処理および前記第2判断処理の判断結果に応じて、前記第1話者の発話部分に対応する前記第1言語または前記第2言語のテキストと、前記第2話者の発話部分に対応する前記第1言語または前記第2言語のテキストを、前記第1再生制御処理により再生される前記会話の進行に合わせて表示する制御を行う表示制御処理と、
を実行する学習支援方法。
The device is
In learning for conversations in which a plurality of speakers including the first speaker and the second speaker alternately speak, the progress of the conversation is performed by using the voice data of the first language corresponding to the uttered portion of the first speaker. The first playback control process that plays back according to
A recording control process for recording the voice data of the voice in the first language uttered by the user corresponding to the utterance portion of the second speaker in accordance with the progress of the conversation reproduced by the first playback control process. ,
A second playback control process for reproducing the user's voice data recorded by the recording control process, and
When displaying the text corresponding to the utterance portion of the first speaker, the texts of both the first language and the second language are displayed, or the texts of both the first language and the second language are not displayed. The first judgment process of determining whether to display based on the level selected corresponding to the user, and
When displaying the text corresponding to the utterance portion of the second speaker, the text in both the first language and the second language is displayed, or the text in the first language is hidden and the second language is displayed. The second judgment process of judging whether to display the text of the above based on the level selected corresponding to the user, and
Depending on the determination results of the first determination process and the second determination process, the text of the first language or the second language corresponding to the utterance portion of the first speaker and the utterance portion of the second speaker. A display control process for controlling the display of the text in the first language or the second language corresponding to the above in accordance with the progress of the conversation reproduced by the first reproduction control process.
Learning support method to carry out.
コンピュータに、
第1話者と第2話者を含む複数の話者が交互に発話する会話を対象とした学習において、前記第1話者の発話部分に対応する第1言語の音声データを前記会話の進行に合わせて再生する第1再生制御処理と、
前記第2話者の発話部分に対応してユーザが発声した前記第1言語による音声の音声データを、前記第1再生制御処理により再生される前記会話の進行に合わせて録音する録音制御処理と、
前記録音制御処理により録音した前記ユーザの音声データを再生する第2再生制御処理と、
前記第1話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語と前記第2言語の両方のテキストを非表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第1判断処理と、
前記第2話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語のテキストを非表示にして前記第2言語のテキストを表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第2判断処理と、
前記第1判断処理および前記第2判断処理の判断結果に応じて、前記第1話者の発話部分に対応する前記第1言語または前記第2言語のテキストと、前記第2話者の発話部分に対応する前記第1言語または前記第2言語のテキストを、前記第1再生制御処理により再生される前記会話の進行に合わせて表示する制御を行う表示制御処理と、
を実行させるためのプログラム。
On the computer
In learning for conversations in which a plurality of speakers including the first speaker and the second speaker alternately speak, the progress of the conversation is performed by using the voice data of the first language corresponding to the uttered portion of the first speaker. The first playback control process that plays back according to
A recording control process for recording the voice data of the voice in the first language uttered by the user corresponding to the utterance portion of the second speaker in accordance with the progress of the conversation reproduced by the first playback control process. ,
A second playback control process for reproducing the user's voice data recorded by the recording control process, and
When displaying the text corresponding to the utterance portion of the first speaker, the texts of both the first language and the second language are displayed, or the texts of both the first language and the second language are not displayed. The first judgment process of determining whether to display based on the level selected corresponding to the user, and
When displaying the text corresponding to the utterance portion of the second speaker, the text in both the first language and the second language is displayed, or the text in the first language is hidden and the second language is displayed. The second judgment process of judging whether to display the text of the above based on the level selected corresponding to the user, and
Depending on the determination results of the first determination process and the second determination process, the text of the first language or the second language corresponding to the utterance portion of the first speaker and the utterance portion of the second speaker. A display control process for controlling the display of the text in the first language or the second language corresponding to the above in accordance with the progress of the conversation reproduced by the first reproduction control process.
A program to execute.
JP2019145897A 2019-08-08 2019-08-08 Electronics and programs Active JP6841309B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019145897A JP6841309B2 (en) 2019-08-08 2019-08-08 Electronics and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145897A JP6841309B2 (en) 2019-08-08 2019-08-08 Electronics and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014251392A Division JP6613560B2 (en) 2014-12-12 2014-12-12 Electronic device, learning support method and program

Publications (2)

Publication Number Publication Date
JP2020003806A JP2020003806A (en) 2020-01-09
JP6841309B2 true JP6841309B2 (en) 2021-03-10

Family

ID=69099823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145897A Active JP6841309B2 (en) 2019-08-08 2019-08-08 Electronics and programs

Country Status (1)

Country Link
JP (1) JP6841309B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114829710A (en) 2020-01-14 2022-07-29 住友重机械工业株式会社 Shovel and remote operation support device
CN111787259B (en) * 2020-07-17 2021-11-23 北京字节跳动网络技术有限公司 Video recording method and device, electronic equipment and storage medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07261652A (en) * 1994-03-23 1995-10-13 Takeshi Yamamoto Language learning method and recording medium for language learning
JPH1138863A (en) * 1997-07-17 1999-02-12 Fuji Xerox Co Ltd Language information apparatus
JP2003323104A (en) * 2002-05-02 2003-11-14 Uchida Yoko Co Ltd Language learning system
CN1474264A (en) * 2002-08-06 2004-02-11 无敌科技股份有限公司 Chinese learing method with computer for interactive conversation
JP3978465B2 (en) * 2003-12-04 2007-09-19 サン電子株式会社 Recording / playback device
JP2007187939A (en) * 2006-01-13 2007-07-26 Hidemi Baba English conversation learning apparatus
US20100273138A1 (en) * 2009-04-28 2010-10-28 Philip Glenny Edmonds Apparatus and method for automatic generation of personalized learning and diagnostic exercises
JP5254487B1 (en) * 2012-11-19 2013-08-07 プラト株式会社 Portable information terminal, shadow voice management method, and computer program

Also Published As

Publication number Publication date
JP2020003806A (en) 2020-01-09

Similar Documents

Publication Publication Date Title
US20200175890A1 (en) Device, method, and graphical user interface for a group reading environment
US6324507B1 (en) Speech recognition enrollment for non-readers and displayless devices
JP6613560B2 (en) Electronic device, learning support method and program
US20140315163A1 (en) Device, method, and graphical user interface for a group reading environment
JP6841309B2 (en) Electronics and programs
JP2015036788A (en) Pronunciation learning device for foreign language
JP6792091B1 (en) Speech learning system and speech learning method
JP6166831B1 (en) Word learning support device, word learning support program, and word learning support method
JP6466391B2 (en) Language learning device
JP7376071B2 (en) Computer program, pronunciation learning support method, and pronunciation learning support device
JPH1138863A (en) Language information apparatus
JP7135372B2 (en) LEARNING SUPPORT DEVICE, LEARNING SUPPORT METHOD AND PROGRAM
JP6155102B2 (en) Learning support device
JP7013702B2 (en) Learning support device, learning support method, and program
KR20140075994A (en) Apparatus and method for language education by using native speaker&#39;s pronunciation data and thought unit
KR20140028527A (en) Apparatus and method for learning word by using native speaker&#39;s pronunciation data and syllable of a word
JP7118389B2 (en) Language learning device, language learning method, and language learning program
JP6068811B2 (en) English learning method with smart devices, application software and smart devices
JP2019060914A (en) Learning support apparatus, learning support system, learning support method, and program
JPH0816089A (en) Pronunciation comparing learning device
JP3146823U (en) Electronics
JP6498346B1 (en) Foreign language learning support system, foreign language learning support method and program
KR20220161977A (en) Method of interactive foreign language learning by voice talking each other using voice recognition function and TTS function
JP2015125203A (en) Sound output device and sound output program
KR20140087953A (en) Apparatus and method for language education by using native speaker&#39;s pronunciation data and thoughtunit

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210201

R150 Certificate of patent or registration of utility model

Ref document number: 6841309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150