JP6841309B2 - Electronics and programs - Google Patents
Electronics and programs Download PDFInfo
- Publication number
- JP6841309B2 JP6841309B2 JP2019145897A JP2019145897A JP6841309B2 JP 6841309 B2 JP6841309 B2 JP 6841309B2 JP 2019145897 A JP2019145897 A JP 2019145897A JP 2019145897 A JP2019145897 A JP 2019145897A JP 6841309 B2 JP6841309 B2 JP 6841309B2
- Authority
- JP
- Japan
- Prior art keywords
- language
- speaker
- text
- user
- conversation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、電子機器およびプログラムに係り、特に外国語の発音を会話形式で学習することを支援するための電子機器およびプログラムに関する。 The present invention relates to electronic devices and programs, and particularly to electronic devices and programs for assisting in learning pronunciation of a foreign language in a conversational manner.
従来から、ユーザの外国語能力の向上や発音の向上等を支援する学習支援装置が種々開発されている。例えば特許文献1には、日本語の問題文を表示するとともに音声として出力し、ユーザがその回答を英語で発声して録音し、その後、正解文として準備されている英文をネイティブ音声で出力する学習支援装置等が記載されている。その際、ユーザは自ら回答を考えて発音することで、外国語能力向上と発音の練習効果の向上が図られている。 Conventionally, various learning support devices have been developed to support the improvement of a user's foreign language ability and pronunciation. For example, in Patent Document 1, a Japanese question sentence is displayed and output as a voice, the user utters and records the answer in English, and then the English sentence prepared as a correct answer sentence is output as a native voice. A learning support device, etc. are described. At that time, the user thinks about the answer and pronounces it, thereby improving the foreign language ability and the pronunciation practice effect.
また、ユーザが外国語の発音を会話形式(スキット会話等ともいう。)で学習することを支援する学習支援装置も種々開発されている。例えば特許文献2には、会話におけるテキストと音声とを対応付けておき、指定した話者の音声を無音にして再生できるようにして、外国語での会話の練習を行うことができるように構成された音声表示出力制御装置等が記載されている。
In addition, various learning support devices have been developed to support the user to learn the pronunciation of a foreign language in a conversational format (also referred to as skit conversation or the like). For example,
ユーザの会話部分で外国語が再生されると、ユーザは再生されている外国語をただ口真似するようになってしまい、外国語の発音や会話の練習の効果が上がらない場合が少なくないが、上記の音声表示出力制御装置等では、ユーザの会話部分で外国語の音声が再生されないように構成することで、ユーザが思考しながら発音するようになり、外国語の発音と会話との練習効果を上げることが可能となる。 When a foreign language is played in the user's conversation part, the user just imitates the played foreign language, and the pronunciation of the foreign language and the practice of conversation are often not effective. In the above-mentioned voice display output control device or the like, by configuring so that the voice of the foreign language is not reproduced in the conversation part of the user, the user can pronounce while thinking, and the practice effect of the pronunciation of the foreign language and the conversation. It becomes possible to raise.
しかしながら、上記の特許文献1に記載された装置等では、ユーザは日本語の問題文を英訳して発音するだけであるため、外国語でやり取りされる会話の能力向上につながりにくく、また、会話のキャッチボールがない点でも外国語の会話の練習にはなりづらいという問題がある。 However, in the device or the like described in Patent Document 1 above, since the user only translates the Japanese problem sentence into English and pronounces it, it is difficult to improve the ability of conversation exchanged in a foreign language, and conversation. There is also the problem that it is difficult to practice conversation in a foreign language because there is no catch ball.
また、上記の特許文献2に記載された装置等では、外国語での会話の練習にはなるが、ユーザの発音が録音されないため、ユーザが、自分が正しい発音をしたか否かを聞き直して確認したり、自分の発音とネイティブの発音とを聞き比べたりすることができない。そのため、外国語の発音と会話の練習効果がさほど上がらない虞れがあった。
Further, in the device or the like described in
本発明は、上記の問題点を鑑みてなされたものであり、外国語での会話の練習の際に、自分の発声した音声を録音し、録音した自分の発音を聞き直したりネイティブの発音と聞き比べたりすることが容易に行えるようにした電子機器およびプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and when practicing conversation in a foreign language, the voice of one's own utterance is recorded, and the recorded one's own pronunciation is re-listened to the native pronunciation. It is an object of the present invention to provide electronic devices and programs that can be easily compared and heard.
以上の課題を解決するため、本発明の電子機器は、第1話者と第2話者を含む複数の話者が交互に発話する会話を対象とした学習において、前記第1話者の発話部分に対応する第1言語の音声データを前記会話の進行に合わせて再生する第1再生制御手段と、前記第2話者の発話部分に対応してユーザが発声した前記第1言語による音声の音声データを、前記第1再生制御手段により再生される前記会話の進行に合わせて録音する録音制御手段と、前記録音制御手段により録音した前記ユーザの音声データを再生する第2再生制御手段と、前記第1話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語と前記第2言語の両方のテキストを非表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第1判断手段と、前記第2話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語のテキストを非表示にして前記第2言語のテキストを表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第2判断手段と、前記第1判断手段および前記第2判断手段の判断結果に応じて、前記第1話者の発話部分に対応する前記第1言語または前記第2言語のテキストと、前記第2話者の発話部分に対応する前記第1言語または前記第2言語のテキストを、前記第1再生制御手段により再生される前記会話の進行に合わせて表示する制御を行う表示制御手段と、を備えることを特徴とする。 In order to solve the above problems, the electronic device of the present invention is used in learning for a conversation in which a plurality of speakers including a first speaker and a second speaker alternately speak, and the first speaker speaks. The first reproduction control means for reproducing the voice data of the first language corresponding to the portion according to the progress of the conversation, and the voice in the first language uttered by the user corresponding to the spoken portion of the second speaker. A recording control means that records audio data in accordance with the progress of the conversation reproduced by the first reproduction control means, and a second reproduction control means that reproduces the user's audio data recorded by the recording control means. When displaying the text corresponding to the spoken part of the first speaker, either the texts of both the first language and the second language are displayed, or the texts of both the first language and the second language are not displayed. The first judgment means for determining whether to display based on the level selected corresponding to the user, and the first language when displaying the text corresponding to the spoken portion of the second speaker. Whether to display both texts in the second language or to hide the texts in the first language and display the texts in the second language is determined based on the level selected for the user. The second judgment means, the text of the first language or the second language corresponding to the spoken portion of the first speaker, and the text of the second language, depending on the judgment results of the first judgment means and the second judgment means. A display control means that controls to display the text of the first language or the second language corresponding to the spoken portion of the second speaker according to the progress of the conversation reproduced by the first reproduction control means. It is characterized by having.
本発明によれば、外国語の会話の練習の際に、自分の発声した音声を録音し、録音した、自分の発音を聞き直したりネイティブの発音と聞き比べたりすることが容易に行えるようになり、外国語の発音と会話の練習効果を的確に向上させることが可能となる。 According to the present invention, when practicing conversation in a foreign language, it is possible to easily record a voice uttered by oneself and re-listen to one's own pronunciation or compare it with a native pronunciation. Therefore, it is possible to accurately improve the pronunciation and conversation practice effect of foreign languages.
以下、本発明に係る電子機器の実施の形態について、図面を参照して説明する。なお、以下では、電子機器が、図1に示すようなハンディな一体型の電子機器である場合について説明するが、発明の範囲は、図示例に限定されない。なお、図1に示す本発明に係る電子機器に、電子辞書等の他の機能を持たせるように構成することも可能である。 Hereinafter, embodiments of the electronic device according to the present invention will be described with reference to the drawings. In the following, a case where the electronic device is a handy integrated electronic device as shown in FIG. 1 will be described, but the scope of the invention is not limited to the illustrated examples. It is also possible to configure the electronic device according to the present invention shown in FIG. 1 to have other functions such as an electronic dictionary.
また、本発明は、例えば図2に示すように、携帯情報端末やスマートフォン等の端末102とメインコンピュータ101とを回線や無線塔で結び、ユーザに端末102を操作させ、それに応じてメインコンピュータ101で種々の処理を行い、メインコンピュータ101から端末102に必要なデータ等を送信する等して、端末102上にテキストを表示させたり端末102上で音声を再生させたり録音させたりする場合も適用される。そして、この場合は、メインコンピュータ101が、本発明に係る電子機器に相当する。
Further, in the present invention, for example, as shown in FIG. 2, a
さらに、以下では、後述する第1言語が外国語(特に英語)であり、第2言語が日本語である場合について説明するが、本発明はこの場合に限定されず、例えば中国人がフランス語の発音を学習するような場合には、第1言語はフランス語、第2言語は中国語となる。このように、第1言語と第2言語の組み合わせは、どの国のユーザがどの外国語を学習するかに応じて適宜決められる。また、例えばユーザの操作によって第1言語と第2言語との組み合わせを切り替えることができるように構成することも可能である。 Further, the case where the first language described later is a foreign language (particularly English) and the second language is Japanese will be described below, but the present invention is not limited to this case, for example, the Chinese is French. When learning pronunciation, the first language is French and the second language is Chinese. As described above, the combination of the first language and the second language is appropriately determined according to which country's user learns which foreign language. Further, for example, it is possible to configure the combination so that the combination of the first language and the second language can be switched by the operation of the user.
図1は、本実施形態に係る電子機器の平面図である。図1に示すように、電子機器1は、ディスプレイ2、入力キー群3、マイクロフォン4、スピーカ5等を備えている。
FIG. 1 is a plan view of an electronic device according to the present embodiment. As shown in FIG. 1, the electronic device 1 includes a
ディスプレイ2は、ユーザによる入力キー群2の操作に応じたテキストや文字、符号等の各種データを白黒またはカラーで表示する部分であり、液晶ディスプレイ(Liquid Crystal Display)等により構成されている。また、ディスプレイ2は、いわゆるタッチパネルと一体的に形成することも可能であり、タッチパネルと一体的に形成されると、手書き入力等の操作を受け付けることができるようになる。
The
入力キー群3は、ユーザから電子機器1を操作するための操作を受ける各種キーを有している。具体的には、入力キー群2は、文字キー3aや、決定キー3b、カーソルキー3c等を有している。文字キー3aは、ユーザによる文字の入力等に使用されるキーであり、本実施形態では“A”〜“Z”キーを備えている。決定キー3bは、ユーザが行う選択処理等の際に決定を指示するキーである。カーソルキー3cは、ディスプレイ2の画面内のカーソル位置の移動等に使用されるキーであり、本実施形態においては上下左右の方向を指定可能となっている。
The
マイクロフォン4は、ユーザが発声する音声を録音するための機器であり、スピーカ5は、後述する音声データやユーザが録音した自分の声を再生して発声させるための機器である。
The microphone 4 is a device for recording a voice uttered by a user, and a
[内部構成]
次に、電子機器1の内部構造について説明する。図3は、電子機器1の内部構成を示すブロック図である。図3に示すように、電子機器1は、入出力制御部11、表示部12、キー入力部13、音声入力部14、音声出力部15、制御部20、記憶部30、RAM(Random Access Memory)40等がそれぞれ接続されて構成されている。
[Internal configuration]
Next, the internal structure of the electronic device 1 will be described. FIG. 3 is a block diagram showing an internal configuration of the electronic device 1. As shown in FIG. 3, the electronic device 1 includes an input / output control unit 11, a
なお、図2に示したように、メインコンピュータ101と端末102とで構成する場合には、メインコンピュータ101と端末102とは、図3の破線の部分で構成が分けられる。そして、メインコンピュータ101側の制御部20や端末102側の入出力制御部11にはそれぞれ図示しないアンテナや入出力インターフェース等が設けられ、両者の間で直接或いは基地局等を介してデータ等のやり取りが行われるように構成される。
As shown in FIG. 2, when the
表示部12は、上記のディスプレイ2を備えており、キー入力部13は、上記の入力キー群3を備えている。また、音声入力部14は、上記のマイクロフォン4を備えており、音声出力部15は、上記のスピーカ5を備えている。
The
入出力制御部11は、ユーザにより入力キー群3の操作が行われてキー入力部13から入力されると、操作されたキーが表す内容を表示部12を介してディスプレイ2上に表示させたり、或いは、操作されたキーの指示内容を制御部20に送信したりする。また、入出力制御部11は、マイクロフォン4で録音されたユーザの声等の録音データが音声入力部14から送られてくると、それを制御部20に送信する。
When the user performs an operation of the input
また、入出力制御部11は、制御部20からテキストデータが送られてくると、表示部12を介してそれをディスプレイ2上に表示させたり、制御部20から音声データが送られてくると、音声出力部15でそれを再生させてスピーカ5から発声させる等の処理を行うようになっている。なお、入出力制御部11と制御部20とを分けずに、制御部20が入出力制御部11としても機能するように構成することも可能である。
Further, when the text data is sent from the
記憶部30は、電子機器1の各種機能を実現するための制御プログラムや各種データ等を記憶している。本実施形態では、記憶部30は、制御プログラムや後述する本発明に係るプログラムを記憶する記憶領域31と、テキストや音声データ等が記憶された会話練習データベース(DB)を記憶する記憶領域32と、後述する話者Aが指定された場合や話者Bが指定された場合に必要になるデータ(図3では「A/B選択データ」と記載されている。)を記憶する記憶領域33等を備えている。
The
RAM40は、制御部20の作業領域として機能するメモリであり、ディスプレイ2上に表示させるテキスト等の表示データを一時的に記憶する記憶領域41や、会話練習データベースから読み出してスピーカ5で再生させる録音データを一時的に記憶する記憶領域42等を有している。
The
制御部20は、CPU(Central Processing Unit)で形成されており、記憶部30やRAM40等と接続されている。そして、制御部20は、入出力制御部11から入力される指示に応じて所定のプログラムに基づいた処理を実行し、各機能部への指示やデータの転送等を行い、電子機器1を統括的に制御するようになっている。
The
具体的には、制御部20は、ユーザにより入力キー群3が操作されて入力された操作信号や、ディスプレイ2のタッチパネルにユーザがタッチして入力された操作信号等が、キー入力部13や表示部12等から入出力制御部11に送信され、入出力制御部11からそれらの操作信号等が入力されると、入力される操作信号等に応じて記憶部30に格納された各種プログラムを読み出し、当該プログラムに従って処理を実行する。また、制御部20は、ユーザの声等がマイクロフォン4で録音された録音データが音声入力部14や入出力制御部11を介して送られてくると、それをRAM40に保存する。
Specifically, in the
そして、制御部20は、処理結果をRAM40に一時的に保存するとともに、当該処理結果を入出力制御部11に送り、表示部12に送ってディスプレイ2上に表示させたり、音声出力部15に送ってスピーカ5で再生させたりする。また、音声データや録音データを再生する指示があった場合は、記憶部30の会話練習DBから音声データを読み出したり、RAM40に保存した録音データを読み出して入出力制御部11に送り、音声出力部15に送ってスピーカ5で再生させる等の処理を行うようになっている。
Then, the
[記憶部における会話練習DBの構成について]
本発明に係る電子機器1では、後述するように、交互に発話して外国語で会話を行う2人の話者のうち、一方の話者をユーザが指定してその話者になり切り、ディスプレイ2上に表示される外国語のテキストを見ながら、或いは外国語のテキストを表示させない状態で、他方の話者であるネイティブの話者と模擬的に会話を行う。そして、指定した一方の話者の会話部分をユーザが自ら発声した音声を録音し、自分の発音を聞き直したりネイティブの発音と聞き比べたりすることによって、ユーザが外国語の発音と会話の練習を行うようになっている。なお、指定の仕方は録音する側の話者を指定するのではなく、録音しない側の話者を指定するようにしても良い。
[About the structure of the conversation practice DB in the memory section]
In the electronic device 1 according to the present invention, as will be described later, of the two speakers who alternately speak and have a conversation in a foreign language, the user designates one speaker and becomes the speaker. While looking at the foreign language text displayed on the
その際、後で詳しく説明するが、本実施形態では、一方の話者の会話部分や他方の話者の会話部分で、ディスプレイ2上に外国語(第1言語)のテキストやその意味を示す日本語(第2言語)のテキストが表示されたり表示されなかったりする。そのため、本実施形態では、記憶部30に記憶されている会話練習DBには、図4に示すように、2人の話者A、Bが交互に会話する各会話部分について、外国語テキスト(第1言語のテキスト)と、日本語テキスト(第2言語のテキスト)と、外国語テキストに対応するネイティブの外国語の音声データとがそれぞれ会話部分ごとに記憶されるようになっている。
At that time, as will be described in detail later, in the present embodiment, the text of a foreign language (first language) and its meaning are shown on the
なお、図4や以下の説明では、話者が2人(A、B)の場合について説明するが、話者が3人以上であってもよい。そして、その場合、図示を省略するが、記憶部30に記憶されている会話練習DBには、複数の話者が互いに会話する各会話部分について、外国語テキスト(第1言語のテキスト)と、日本語テキスト(第2言語のテキスト)と、外国語テキストに対応するネイティブの外国語の音声データとがそれぞれ記憶される。また、話者が3人以上の場合においても、以下の説明と同様に説明される。
In FIG. 4 and the following description, the case where the number of speakers is two (A, B) will be described, but the number of speakers may be three or more. In that case, although not shown, the conversation practice DB stored in the
[動作]
次に、本実施形態に係る電子機器1における動作について、図5〜図7に示すフローチャート等に基づいて説明する。また、本実施形態に係る電子機器1の作用についてもあわせて説明する。なお、以下で説明する電子機器1の動作は、前述した本発明に係るプログラムに従って行われるため、以下の説明は、本発明に係るプログラムについての説明にもなっている。
[motion]
Next, the operation of the electronic device 1 according to the present embodiment will be described with reference to the flowcharts and the like shown in FIGS. 5 to 7. In addition, the operation of the electronic device 1 according to the present embodiment will also be described. Since the operation of the electronic device 1 described below is performed according to the program according to the present invention described above, the following description is also a description of the program according to the present invention.
電子機器1が本発明の外国語の会話学習の専用装置として形成されている場合には、ユーザにより電子機器1の電源がオンされると、電子機器1の制御部20は会話学習を自動的に開始する。また、電子機器1が電子辞書等の他の機能を有している場合には、ユーザにより電子機器1の電源がオンされて外国語の会話学習が選択されると、制御部20は会話学習を開始する。制御部20が行う具体的な各処理を図5のフローチャートに示す。
When the electronic device 1 is formed as a dedicated device for learning a conversation in a foreign language of the present invention, when the power of the electronic device 1 is turned on by the user, the
外国語の会話学習を開始すると、制御部20は、ディスプレイ2上に図8(A)に示すような選択画面を表示させ、ユーザに外国語能力のレベルに相当するSTEPを選択させる(ステップS1)。その際、以下の選択画面においても同様であるが、ユーザは、選択画面上の各項目の左側に記載されているA、B、…等に対応する文字キー3a(図1参照)を押下したり、或いは選択する項目をタッチペン102a(図2参照)でタッチする等して、項目(図8(A)の場合はいずれかのSTEP)を選択することができるようになっている。
When the conversation learning of a foreign language is started, the
なお、ここで、STEP0(A:シャドーインクしよう)が選択されると、後述する話者選択(ステップS3)は行われず、各話者の各会話部分についてそれぞれ図4に示した外国語テキストとその意味を示す日本語テキストとが読み出されてディスプレイ2上に表示され、外国語テキストに対応するネイティブの外国語の音声データが再生されてスピーカ5から発声される。ユーザは、この発声に合わせて自らも発音する会話学習を行う。
Here, when STEP0 (A: Let's shadow ink) is selected, the speaker selection (step S3) described later is not performed, and each conversation part of each speaker is different from the foreign language text shown in FIG. The Japanese text indicating the meaning is read out and displayed on the
そして、外国語の会話が一通り済んだ時点で、会話学習は終了する。この際、ユーザにSTEPを選択させる処理(ステップS1)に戻るように構成することも可能である。以下では、STEP1〜3のいずれかが選択された場合について説明する。 Then, when the conversation in the foreign language is completed, the conversation learning ends. At this time, it is also possible to configure the process to return to the process (step S1) in which the user selects STEP. Hereinafter, a case where any one of STEPs 1 to 3 is selected will be described.
電子機器1の制御部20は、ユーザにより図8(A)に示す選択画面上でSTEP1〜3の何れかが選択されると(ステップS1)、続いて、ディスプレイ2上に図8(B)に示す選択画面を表示させてコンテンツすなわち会話の場面を選択させる(ステップS2)。そして、ユーザによりコンテンツが選択されると、制御部20は、続いて、ディスプレイ2上に図8(C)に示す選択画面を表示させて、複数の話者(この場合は話者A、B)のうちの一の話者を選択させて指定させる(ステップS3)。
When any one of STEPs 1 to 3 is selected by the user on the selection screen shown in FIG. 8A, the
ここでは、話者Aは、外国語(本実施形態では英語)を母国語とする外国人であり、話者Bは、外国語を学ぶ日本人である場合が示されている。そして、以下では、ユーザが話者Bを指定して、外国語を学ぶ日本人になり切って会話や発音を学習する場合について説明するが、ユーザは必ずしも日本人である話者Bを指定する必要はなく、外国人である話者Aを選択してもよい。 Here, the case where the speaker A is a foreigner whose mother tongue is a foreign language (English in the present embodiment) and the speaker B is a Japanese who learns a foreign language is shown. Then, in the following, a case where the user specifies speaker B and learns conversation and pronunciation by impersonating a Japanese who learns a foreign language will be described, but the user does not necessarily specify speaker B who is Japanese. It is not necessary, and speaker A, who is a foreigner, may be selected.
制御部20は、ユーザにより話者が指定されると、図8(D)に示すように、ディスプレイ2上に選択されたコンテンツのタイトル等を表示させるとともに、ディスプレイ2の下方に、話者A、Bのキャラクタを表示させる。また、ディスプレイ2の下方に、決定キー3b(図1参照)を押下すると会話学習が始まることや、指定した話者Bの番でマイクロフォン4に向かって発声することを指示する表示等を表示させる。
When a speaker is designated by the user, the
そして、ユーザにより決定キー3bが押下されると、制御部20は、図5のフローチャートのステップS4以降の各処理に移行する。具体的には、制御部20は、記憶部30に記憶されている会話練習DBから、このコンテンツにおける各話者の各会話部分のうち、最初に話す話者(この場合は話者A)の最初の会話部分の外国語テキストと日本語テキストと外国語の音声データとを読み出す(ステップS4)。
Then, when the decision key 3b is pressed by the user, the
そして、制御部20は、ユーザの番であるか否か(ステップS5)すなわちユーザが指定した話者Bの会話の順番か否かを判断し、ユーザの番であれば(ステップS5;Yes)録音モードに移行し(ステップS6)、ユーザの番でなければ(ステップS5;No)再生モードに移行する(ステップS7)。このように、制御部20は、ユーザにより指定された話者B以外の話者Aの会話部分では音声データの再生を行わせ(再生モード)、指定された話者Bの会話部分では音声データの再生を行わせずに録音を行わせる(録音モード)ようになっている。
Then, the
今の場合、ユーザが指定したのは話者Bであり、最初の会話部分は話者Aの会話部分であり、ユーザ(話者B)の順番ではないから(ステップS5;No)、制御部20は、再生モード(ステップS7)に移行する。以下、再生モード(ステップS7)について説明する。 In this case, the user has specified speaker B, and the first conversation part is the conversation part of speaker A, not in the order of the user (speaker B) (step S5; No), so the control unit. 20 shifts to the reproduction mode (step S7). Hereinafter, the reproduction mode (step S7) will be described.
本実施形態では、制御部20は、ステップS1(図5参照)でユーザにより選択されたSTEPがSTEP1あるいはSTEP2である場合には、以下の各図で説明するように(後述する図9(A)、図10(A)参照)、話者Aの会話部分では外国語テキスト(第1言語のテキスト。本実施形態では英語のテキスト)と第2言語のテキスト(本実施形態では日本語のテキスト)の両方を表示させるパターンでディスプレイ2上に会話テキストを表示させる。
In the present embodiment, when the STEP selected by the user in step S1 (see FIG. 5) is STEP1 or STEP2, the
そして、ユーザにより選択されたSTEPがSTEP3であった場合には、ユーザの学習のレベルが上がったとして、ユーザの会話能力をさらに向上させるために、図11(A)に示すように、話者Aの会話部分ではディスプレイ2上に外国語テキストも日本語のテキストも表示させず、それらの部分を網掛け等で隠すように表示するパターンでディスプレイ2上に表示させ、音声だけで相手が言ったことを理解し、それに対する会話の練習をするように制御するようになっている。
Then, when the STEP selected by the user is
なお、STEP2、3のいずれのSTEPが選択された場合でも、後述する録音を聞く処理(ステップS11)やお手本を聞く処理(ステップS12)の際には、ユーザが外国語を正しく発音できているか否かを判断することができるようにするために、外国語テキストを表示させる。
Regardless of which
図6のフローチャートに戻り、再生モードの説明をする。まず、ステップS1(図5参照)でユーザにより選択されたSTEPがSTEP3であるか否かを判断する(ステップS71)。 Returning to the flowchart of FIG. 6, the reproduction mode will be described. First, it is determined whether or not the STEP selected by the user in step S1 (see FIG. 5) is STEP 3 (step S71).
そして、STEP3でなければ(ステップS71;No)、すなわちユーザにより選択されたSTEPがSTEP1、2であれば、制御部20は、話者Aの会話部分で外国語テキストを表示させるパターンを選択し、図9(A)や図10(A)に示すように、ディスプレイ2上に、ステップS4で記憶部30に記憶されている会話練習DBから読み出した外国語テキストを表示させる。また、同時に読み出した日本語テキストをその下側に表示させる(ステップS72)。
Then, if it is not STEP3 (step S71; No), that is, if the STEPs selected by the user are STEP1 and STEP2, the
そして、今は話者Aの会話部分を示す番であるから、図9(A)や図10(A)、図11(A)に示すように、上記の外国語テキストの音声が話者Aによって発声されていることを表すために、制御部20は、外国語テキスト等の表示部分を、話者Aに対応するキャラクタからの吹き出し画像として表示させる(ステップS73)。また、制御部20は、図9(A)等に示すように、話者Aに対応するキャラクタが手を挙げているように表示させて、話者Aの会話部分が再生中であることを表すようにキャラクタを表示させる(ステップS73)。
And now, since it is the turn to show the conversation part of the speaker A, as shown in FIGS. 9 (A), 10 (A), and 11 (A), the voice of the above foreign language text is the speaker A. In order to indicate that the voice is being uttered by, the
さらに、制御部20は、図9(A)等に示すように、ディスプレイ2の下方に、例えば「収録音声再生中」等と表示させたり、電子機器1から音声が発声されている状態を表示して音声を再生中であることを表すアイコンを表示させる(ステップS73)。そして、制御部20は、この状態で、ステップS4で記憶部30に記憶されている会話練習DBから読み出した当該会話部分の外国語の音声データを再生させて(ステップS74)スピーカ5から発声させるようになっている。
Further, as shown in FIG. 9A and the like, the
なお、以下のどの場合においても、制御部20は、上記の吹き出し画像の吹き出しの位置を、話者が交代するごとに、交代後の話者に対応するキャラクタの位置に変える。また、手を挙げるキャラクタを交代後の話者に対応するキャラクタに変えるようになっている。
In any of the following cases, the
これは、後述する録音が行われる際にも同様であり(後述する図9(B)参照)、録音が行われている話者(この場合は話者B)に対応するキャラクタから吹き出し画像が吹き出すように表示させ、また、録音が行われている話者に対応するキャラクタが手を挙げるように表示させるように表示の仕方を変える。本実施形態では、制御部20は、このようにして、現在行われている再生や録音が、どの話者の順番で行われているかを識別表示させるようになっている。
This also applies when the recording described later is performed (see FIG. 9B described later), and the balloon image is generated from the character corresponding to the speaker (in this case, speaker B) in which the recording is performed. The display method is changed so that the character is displayed as if it is blown out, and the character corresponding to the speaker who is recording is displayed as if raising his / her hand. In this embodiment, the
また、以下の説明においても同様であるが、再生や録音がどの話者の順番で行われているかを識別表示させる方法としては、図9(A)、(B)等に示すように、録音や音声データの再生が行われている話者に対応するキャラクタが手を挙げるように表示させる方法に限定されず、これ以外にも、例えば、録音や再生が行われている話者に対応するキャラクタを、他の会話していない話者に対応するキャラクタよりも大きく表示させたり、色を変えて表示するように構成することも可能である。 Further, the same applies to the following description, but as a method of identifying and displaying in which speaker order the playback or recording is performed, as shown in FIGS. 9A and 9B, recording is performed. It is not limited to the method of displaying the character corresponding to the speaker who is playing the voice data or the voice data so as to raise his / her hand, and other than this, for example, it corresponds to the speaker who is recording or playing the voice data. It is also possible to make the character appear larger than the character corresponding to another non-conversing speaker, or to display it in a different color.
このように、本実施形態では、制御部20は、録音や音声データの再生が行われている話者に対応するキャラクタを、会話していない状態での表示の仕方とは異なる態様でディスプレイ2上に表示させることで、どの話者の順番であるかを識別表示させるようになっている。
As described above, in the present embodiment, the
一方、制御部20は、ステップS71でSTEP3であると判断した場合(ステップS71;Yes)には、現在の話者Aの外国語及び日本語テキストを表示させないパターンを選択する(図11(A)参照)。
On the other hand, when the
そして、制御部20は、図11(A)に示すように、外国人の話者Aが話している内容すなわち再生させている外国語の音声データに対応する外国語テキストを表示させないようにするために、その部分を網掛け等のマスク表示体で隠すように表示させる。また、図11(A)に示すように、それに対応する日本語テキストも表示させず網掛け等で隠して表示させる(ステップS75)。
Then, as shown in FIG. 11A, the
そして、制御部20は、上記のように吹き出し画像の吹き出し位置を話者Aに対応するキャラクタの位置に変え、話者Aの会話部分が再生中であることを表すようにキャラクタを表示させて(ステップS73)、当該会話部分の外国語の音声データを再生させて(ステップS74)スピーカ5から発声させる。
Then, the
このように構成することで、ユーザがSTEP3を選択した場合、ディスプレイ2上に外国語テキスト等が表示されなくなるため、ユーザは、再生される音声データを聞き取って話者Aが話した内容(英語)を理解することが必要となり、外国語会話能力をさらに向上させることが可能となる。
With this configuration, when the user selects STEP3, the foreign language text or the like is not displayed on the
制御部20は、以上のようにして、再生モード(図5のステップS7)を実行して終了すると、選択されたコンテンツに次の会話部分があるか否かを判断する(ステップS8)。この場合、次の話者Bの会話部分があるため(ステップS8;Yes)、制御部20は、ステップS4の処理に戻り、記憶部30に記憶されている会話練習DBから、このコンテンツにおける各話者の各会話部分のうち、次に話す話者Bの会話部分の外国語テキストと日本語テキストと外国語の音声データとを読み出す(ステップS4)。
When the
そして、制御部20は、次はユーザの番であるから(ステップS5;Yes)、すなわち次はユーザが指定した話者Bの会話の順番であるから、録音モードに移行する(ステップS6)。そして、前述したように、ユーザにより指定された話者Bの会話部分では音声データの再生を行わせずに録音を行わせる。以下、図7のフローチャートに従って録音モード(ステップS6)について説明する。
Then, the
制御部20は、録音モード(ステップS6)では、ユーザにより選択されたSTEPがSTEP1である場合には、図9(B)に示すようにディスプレイ2上に自分が発声する外国語テキストとその意味を示す日本語テキストを表示させるが、ユーザにより選択されたSTEPがSTEP2やSTEP3である場合には、図10(B)や図11(B)に示すようにディスプレイ2上に外国語テキストを表示させず、その部分を網掛けで隠すように表示させる。
In the recording mode (step S6), when the STEP selected by the user is STEP 1, the
なお、その際、日本語テキストも網掛けで隠してしまうと、話者Aに対してどのような内容を答えればよいかが分からなくなってしまうため、本実施形態では、図10(B)や図11(B)に示すように、日本語テキストは表示されるようになっている。日本語テキストも網掛けで隠すように表示させることも可能である。 At that time, if the Japanese text is also hidden by shading, it becomes difficult to know what kind of content should be answered to the speaker A. Therefore, in the present embodiment, FIG. 10 (B) and FIG. As shown in 11 (B), Japanese text is displayed. It is also possible to display Japanese text so that it is hidden by shading.
上記のように、ユーザにより選択されたSTEPにより外国語テキストの表示のさせ方が変わるため、制御部20は、録音モードでは、まず、ユーザにより選択されたSTEPがSTEP1であるか否かを判断する(図7のステップS61)。
As described above, since the method of displaying the foreign language text changes depending on the STEP selected by the user, the
そして、制御部20は、選択されたSTEPがSTEP1であれば(ステップS61;Yes)、図9(B)に示すように、外国語テキストと日本語テキストの両方を表示させるパターンを選択する(ステップS62)。また、選択されたSTEPがSTEP2やSTEP3であれば(ステップS61;No)、図10(B)や図11(B)に示すように、外国語テキストを表示せず網掛けで隠して表示させるパターンを選択する(ステップS63)。
Then, if the selected STEP is STEP 1 (step S61; Yes), the
そして、今は話者Bの会話部分を示す番であるから、図9(B)や図10(B)、図11(B)に示すように、上記の外国語テキストを話者B(すなわちユーザ)が発声することを表すために、制御部20は、外国語テキスト等の表示部分を、話者Bに対応するキャラクタからの吹き出し画像として表示させる(ステップS64)。また、制御部20は、図9(B)等に示すように、話者Bに対応するキャラクタが手を挙げているように表示させて、話者Bの会話部分が録音されることを表すようにキャラクタを表示させる(ステップS73)。
And now, since it is the turn to show the conversation part of the speaker B, as shown in FIGS. 9 (B), 10 (B), and 11 (B), the above foreign language text is applied to the speaker B (that is, that is). In order to indicate that the user) utters, the
さらに、制御部20は、図9(B)等に示すように、ディスプレイ2の下方に、例えば「録音中」等と表示させて(ステップS64)ユーザが発声する音声を録音中であることを表す。そして、制御部20は、この状態で、ユーザが発声する音声をマイクロフォン4(図1参照)で録音する録音処理を開始する(ステップS65)。ユーザは、図8(D)に示したタイトル画面の下方に記載された「Bの番でマイクに向かって話しましょう」等の記載を読んでいるため、話者Bの番になった時点でマイクロフォン4に向かって外国語を発声する。
Further, as shown in FIG. 9B or the like, the
制御部20は、上記のようにして録音を開始すると同時に、図9(B)等に示すように、ディスプレイ2の下方に、録音時間をバーで表すインジケータを表示させる(ステップS66)。そして、インジケータの左側に「0:00」と表示させ、右側に「0:15」と表示させて、予め設定された録音時間が15秒間であることをユーザに知らせる。
At the same time that the
また、それと同時に、録音開始と同時に「0:00」側すなわちインジケータの左端側からバーの延出を開始し、録音開始から15秒が経過した時点で「0:15」側すなわちインジケータの右端側にバーの先端が到達するようにバーを延ばしていくように表示させて、録音開始からの経過時間をユーザに知らせる。 At the same time, the bar starts to extend from the "0:00" side, that is, the left end side of the indicator at the same time as the recording starts, and when 15 seconds have passed from the start of recording, the "0:15" side, that is, the right end side of the indicator. Displays that the bar is extended so that the tip of the bar reaches the user, and informs the user of the elapsed time from the start of recording.
そして、制御部20は、例えば録音を開始してから予め設定された録音時間(例えば15秒)が経過してしまいタイムオーバーになった場合は(ステップS67;Yes)、制御部20は、録音された音声を、前述した録音データ(図3参照)としてRAM40に記憶させて、録音モード(ステップS6)を終了する。
Then, when, for example, a preset recording time (for example, 15 seconds) has elapsed from the start of recording and the time is over (step S67; Yes), the
また、制御部20は、例えばインジケータの下方に、録音を停止する場合には決定キー3b(図1参照)を押下する旨を表示させる。そして、録音を開始した後、予め設定された録音時間(例えば15秒)が経過する前に、ユーザにより決定キー3bが押下され録音を停止する操作がなされた場合には、その時点で録音を停止するようになっている。
Further, the
そして、制御部20は、このように、ユーザにより録音中に決定キー3bが押下され、録音を停止する操作がなされた場合も(ステップS67;No、ステップS68;Yes)、ユーザが発声して録音された音声を前述した録音データ(図3参照)としてRAM40に記憶させて、録音モード(ステップS6)を終了するようになっている。
Then, even when the
予め設定した録音時間が経過しないと録音が終了しないように構成すると、予め設定した録音時間より短い時間でユーザが外国語を発声し終わった場合に、ユーザの発声後に無言の時間ができてしまい、会話が不自然になる可能性があるが、上記のように、ユーザが発声を終了した時点で録音を停止することができるように構成することで、不要な無言の時間が生じなくなり、会話を自然に行っている印象を与えることが可能となる。 If the recording is configured so that the recording does not end until the preset recording time has elapsed, if the user finishes uttering a foreign language in a time shorter than the preset recording time, there will be a silent time after the user utters. , The conversation may be unnatural, but as mentioned above, by configuring so that the recording can be stopped when the user finishes speaking, unnecessary silent time will not occur and the conversation will be done. It is possible to give the impression that you are doing this naturally.
このようにして、録音モードを終了すると、制御部20は、選択されたコンテンツに次の会話部分があるか否かを判断し(図5のステップS8)、次の話者Aの会話部分があれば(ステップS8;Yes)、上記と同様にステップS4の処理から各処理を繰り返して行い、話者Aの会話部分では再生モード(ステップS7)が選択されて、例えば図9(C)に示すように、話者Aの会話部分の表示や音声データの再生がなされる。
When the recording mode is terminated in this way, the
一方、制御部20は、以上のようにして、ユーザにより選択されたコンテンツの各話者A、Bの会話部分の再生や録音が全て終了すると(ステップS8;No)、会話練習を終了して、ユーザが復習等を行うためのメニューを表示する(ステップS9)。ユーザはこのメニューから所望の項目を選択することで、録音データを再生するか、お手本の音声データを再生するか等の指定ができるようになっている。そして、制御部90は、ユーザにより指定がなされるとその指定に応じた処理を行う。
On the other hand, when the
具体的には、制御部20は、上記のようにして行った会話練習が終了すると、図9(D)に示すように、ディスプレイ2上にコンテンツのタイトル等を表示させるとともに、ディスプレイ2の下方に、復習等のためのメニューを表示する。具体的なメニューとしては、ユーザが録音した自分の外国語の発音を聞くこと(図中の「録音を聞く」参照)や、ネイティブの発音を聞くこと(図中の「お手本を聞く」参照)、或いはもう一度録音をし直すこと(図中の「もう一度録音」参照)等を表示させる。
Specifically, when the conversation practice performed as described above is completed, the
なお、図9(D)では、ユーザが各項目をタッチすることで指定する場合が示されているが、例えば各項目にA、B、…等を表示させ、そのA、B、…等に対応する文字キー3a(図1参照)を押下することで指定することができるように構成することも可能である。 Note that FIG. 9D shows a case where the user touches each item to specify the item. For example, A, B, ... Etc. are displayed on each item, and the A, B, ... Etc. are displayed. It is also possible to configure it so that it can be specified by pressing the corresponding character key 3a (see FIG. 1).
制御部20は、録音を聞くことが指定された場合には(ステップS11)、上記と同様にして、記憶部30に記憶されている会話練習DBから話者A、Bの外国語テキストと日本語テキストとを読み出して、図9(A)〜(C)に示したように、ディスプレイ2上に外国語テキストや日本語テキスト、吹き出し画像、キャラクタ、アイコン等を表示させる。そして、話者Aの会話部分では会話練習DBから読み出した外国語の音声データを再生させ、話者Bの会話部分ではRAM40に記憶させたユーザの録音データを読み出して再生させて、それぞれスピーカ5(図1参照)から発声させる。
When it is specified to listen to the recording (step S11), the
このようにして、音声データと録音データとを交互に再生させて発声させることで、ユーザは、自分の発音を聞き直して、発音が正しく行われたかや、話者Aとの会話が成立しているか等をチェックすることが可能となる。 In this way, by alternately playing back the voice data and the recorded data and uttering the voice, the user re-listens to his / her own pronunciation, and whether the pronunciation is correct or a conversation with the speaker A is established. It is possible to check whether or not it is.
また、制御部20は、お手本を聞くことが指定された場合には(ステップS12)、上記と同様にして、記憶部30に記憶されている会話練習DBから話者A、Bの外国語テキストと日本語テキストと外国語の音声データを読み出して、図9(A)〜(C)に示したように、ディスプレイ2上に外国語テキストや日本語テキスト等を表示させながら、話者A、Bの両方について外国語の音声データを再生させてスピーカ5から発声させる。
Further, when it is specified to listen to the model (step S12), the
このようにして、ネイティブの外国語の音声データを再生させて発声させることで、ユーザは、正しい発音を確認したり、自分の発音と聞き比べる等して、発音を的確に修正したり、話者Aとの会話が成立するためにはどのように発音すればよかったのか等をチェックすることが可能となる。 In this way, by playing back the voice data of the native foreign language and uttering it, the user can confirm the correct pronunciation, compare it with his / her own pronunciation, and correct the pronunciation accurately. It is possible to check how the pronunciation should have been made in order for the conversation with the person A to be established.
また、制御部20は、もう一度録音が指定された場合には(ステップS13)、上記のステップS4以降の各処理をやり直して、ユーザが発声する音声を録音し直す。そして、制御部20は、ユーザにより図9(D)に画面に示したメニューの中から「終了する」が選択された場合には(ステップS10;Yes)、会話学習を終了させる。
Further, when recording is specified again (step S13), the
[効果]
以上のように、本実施形態に係る電子機器1やプログラムによれば、ユーザにより指定された一の話者(上記の場合は話者B)以外の話者(話者A)の会話部分では音声データの再生を行わせるが、指定された一の話者(話者B)の会話部分では音声データの再生を行わせずに録音を行うため、ユーザが外国語での会話を練習する際に、自分のパートでは外国語が再生されない。
[effect]
As described above, according to the electronic device 1 and the program according to the present embodiment, the conversation part of the speaker (speaker A) other than one speaker (speaker B in the above case) designated by the user When the user practices conversation in a foreign language, the voice data is played back, but the conversation part of the specified speaker (speaker B) is recorded without playing back the voice data. In addition, foreign languages are not played in my part.
そのため、ユーザが、再生されている外国語を口真似してしまう状態にはならず、ユーザが自ら思考して会話することが可能となり、ユーザの外国語の発音と会話の練習効果を的確に向上させることが可能となる。 Therefore, the user does not have to imitate the foreign language being played, and the user can think and talk by himself / herself, and the pronunciation of the foreign language of the user and the practice effect of the conversation are accurately improved. It becomes possible to make it.
また、ユーザが自分の発声を録音した後で、自分の発音を聞き直したり、ネイティブの発音と聞き比べたりすることが可能となるため、ユーザの外国語の発音と会話の練習効果をさらに向上させることが可能となる。 In addition, after the user records his / her own utterance, he / she can re-listen to his / her own pronunciation and compare it with the native pronunciation, further improving the user's foreign language pronunciation and conversation practice effect. It becomes possible to make it.
[変形例1]
なお、上記の実施形態では、ユーザに自分の外国語能力のレベルに相当するSTEPを選択させた(図5のステップS1参照)。しかし、例えば、制御部20が、会話学習の練習の回数に応じてSTEPを自動的に設定するように構成することも可能である。この場合は、制御部20は、図5に示したフローチャートに代えて、図12に示すフローチャートに従って各処理を行うように構成される。
[Modification 1]
In the above embodiment, the user is made to select a STEP corresponding to his / her foreign language ability level (see step S1 in FIG. 5). However, for example, the
具体的には、制御部20は、図5のフローチャートでは、録音を聞き直したり(ステップS11)、お手本を聞いたり(ステップS12)したり、或いはもう一度録音(ステップS13)した後、ユーザにより図9(D)に画面に示したメニューの中から「終了する」が選択された場合には(ステップS10;Yes)、会話学習をすぐに終了させるように構成されていた。
Specifically, in the flowchart of FIG. 5, the
しかし、この変形例では、制御部20は、会話学習の練習の回数(すなわち上記のステップS10で「終了する」が選択された回数に等しい。)をカウントするように構成されており、上記のようにステップS11〜13の処理を行う等した後(なお図12ではステップS11〜13の各処理の図示が省略されている。)、ユーザにより「終了する」が選択された場合(ステップS10;Yes)、制御部20は、練習回数を1だけインクリメント(ステップS23)してメモリに保存させた後、会話学習を終了させる。
However, in this modification, the
そして、外国語の会話学習を開始されると、制御部20は、図5のフローチャートでは、ユーザに外国語能力のレベルに相当するSTEPを選択させた後(ステップS1)、会話の場面であるコンテンツを選択させたが(ステップS2)、この変形例では、図12のフローチャートに示すように、ユーザによりSTEPを選択させずに、ユーザにコンテンツを選択させた後(ステップS2)、メモリに保存させた上記の練習回数を読み出し(ステップS21)、練習回数に応じて外国語能力のレベルに相当するSTEPを制御部20が自動的に設定する(ステップS22)ようになっている。
Then, when the foreign language conversation learning is started, the
なお、制御部20がSTEPを自動的に設定(ステップS22)した後は、図5のフローチャートで説明したステップS3〜S9(図6のステップS71〜S74や図7のステップS61〜S68を含む。)と同様の各処理を行うように構成され、ユーザにより「終了する」が選択された時点で(ステップS10;Yes)、制御部20は、再度、練習回数を1だけインクリメントさせて(ステップS23)、会話学習を終了させる。
After the
また、制御部20が練習回数に応じてSTEPを設定する方法としては、例えば、練習回数が0〜9回の場合はSTEP1、10〜19回の場合はSTEP2、20回以上の場合はSTEP3のように設定することが可能であるが、この方法に限定されない。また、ユーザが練習回数をリセットすることができるように構成することも可能である。
As a method for the
このように構成すれば、ユーザが会話学習の練習を重ねるごとに練習回数が増加していくため、練習を重ねることで外国語能力のレベルを表すSTEPが自動的に上がっていくようになる。そのため、練習を重ねており外国語能力が向上しているにも関わらずなかなか上のレベルすなわち高いSTEPを選択しようとしないユーザに対し、半ば強制的にSTEPを上げることで、より高いSTEPに挑戦させることが可能となり、ユーザの外国語能力をより向上させることが可能となる。 With this configuration, the number of exercises increases each time the user practices conversation learning, so the STEP that indicates the level of foreign language ability automatically increases as the user practices. Therefore, for users who are practicing and improving their foreign language ability but do not try to select a higher level, that is, a higher STEP, try to raise the STEP semi-forcedly to challenge a higher STEP. It becomes possible to improve the foreign language ability of the user.
[変形例2]
また、上記の実施形態では、ユーザが自分の発声を録音することができる録音時間が例えば15秒に予め設定されている場合について説明したが、例えば上記のように練習回数をカウントするように構成し、練習回数が増加するに従って、この録音時間を短くしていくように構成することも可能である。
[Modification 2]
Further, in the above embodiment, the case where the recording time during which the user can record his / her own utterance is set in advance to, for example, 15 seconds has been described, but for example, the number of exercises is counted as described above. However, it is also possible to configure the recording time to be shortened as the number of exercises increases.
このように構成すれば、練習回数が増すに従って、ユーザはより速く外国語を発音することが要求されるようになり、上記のようにユーザの外国語の発音と会話の練習効果を向上させることが可能となると同時に、よりネイティブに近いスピードで外国語を発音することができるようになり、ユーザの外国語能力をより向上させることが可能となる。 With this configuration, as the number of exercises increases, the user is required to pronounce the foreign language faster, and as described above, the effect of the user's pronunciation of the foreign language and the practice effect of the conversation can be improved. At the same time, it becomes possible to pronounce a foreign language at a speed closer to that of a native speaker, and it becomes possible to further improve the foreign language ability of the user.
以上、本発明の実施形態を説明したが、本発明の範囲は、上記の実施形態等に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
複数の話者が交互に発話する会話のテキストおよび当該テキストに対応する音声データを記憶している記憶部と、
前記複数の話者のうちの一の話者を指定させる話者指定手段と、
前記話者指定手段により指定された前記一の話者及び前記一の話者以外の他の話者のいずれか一方の会話部分では前記記憶部に記憶されている音声データの再生を音声出力部に行わせ、前記一の話者及び前記一の話者以外の他の話者のいずれか他方の会話部分では前記音声の再生を行わせずに音声入力部から入力されるユーザが発声した音声の録音を行うように制御する再生録音制御手段と、
前記再生および録音の終了後に、前記録音した音声データか、前記録音した音声データに対応する会話部分として前記記憶部に記憶されている音声データの何れを再生するかの指定を行わせる指定手段と、
前記指定に応じた音声データを前記音声出力部にて再生させる再生手段と、
を備えることを特徴とする電子機器。
<請求項2>
前記再生録音制御手段は、前記録音を開始した後、予め設定された録音時間が経過する前に、ユーザにより前記録音を停止する操作がなされた場合には、その時点で前記録音を停止することを特徴とする請求項1に記載の電子機器。
<請求項3>
前記テキストは、前記音声に対応する第1言語のテキストと、その意味を示す、第2言語のテキストとを備え、
ユーザにより選択されたレベルに応じて、前記各話者の会話部分について、前記第1言語のテキストと前記第2言語のテキストをディスプレイ上に表示させるか否かを制御する表示制御手段を備えることを特徴とする請求項1または請求項2に記載の電子機器。
<請求項4>
前記記憶部には、前記複数の話者についてそれぞれ、前記会話部分ごとに、前記音声データと、前記第1言語のテキストと、前記第2言語のテキストとが記憶されていることを特徴とする請求項3に記載の電子機器。
<請求項5>
前記再生および録音の際に複数の話者に対応する複数のキャラクタを表示させ、どの話者の順番であるかを識別表示させる識別表示手段を備えることを特徴とする請求項1から請求項4のいずれか一項に記載の電子機器。
<請求項6>
前記再生手段が前記指定に応じた音声を再生させて行った会話学習の練習の回数をカウントするカウント手段と、
前記カウント手段によりカウントされた前記練習の回数に応じてレベルを自動的に設定するレベル設定手段と、
を備えることを特徴とする請求項1から請求項5のいずれか一項に記載の電子機器。
<請求項7>
複数の話者が交互に発話する会話のテキストおよび当該テキストに対応する音声データを記憶している記憶部を備えたコンピュータを、
前記複数の話者のうちの一の話者を指定させる話者指定手段と、
前記話者指定手段により指定された前記一の話者及び前記一の話者以外の他の話者のいずれか一方の会話部分では前記記憶部に記憶されている音声データの再生を音声出力部に行わせ、前記一の話者及び前記一の話者以外の他の話者のいずれか他方の会話部分では前記音声の再生を行わせずに音声入力部から入力されるユーザが発声した音声の録音を行うように制御する再生録音制御手段と、
前記再生および録音の終了後に、前記録音した音声データか、前記録音した音声データに対応する会話部分として前記記憶部に記憶されている音声データの何れを再生するかの指定を行わせる指定手段と、
前記指定に応じた音声データを前記音声出力部にて再生させる再生手段、
として機能させるためのプログラム。
Although the embodiments of the present invention have been described above, the scope of the present invention is not limited to the above-described embodiments and the like, but includes the scope of the invention described in the claims and the equivalent scope thereof.
The inventions described in the claims originally attached to the application of this application are added below. The claims in the appendix are as specified in the claims originally attached to the application for this application.
[Additional Notes]
<Claim 1>
A storage unit that stores conversation texts spoken by multiple speakers and voice data corresponding to the texts.
A speaker designation means for designating one of the plurality of speakers, and
In the conversation portion of either the one speaker designated by the speaker designation means and the other speaker other than the one speaker, the voice output unit reproduces the voice data stored in the storage unit. The voice uttered by the user input from the voice input unit without reproducing the voice in the conversation part of any one of the one speaker and the other speakers other than the one speaker. Playback recording control means that controls the recording of
As a designation means for designating whether to reproduce the recorded voice data or the voice data stored in the storage unit as a conversation part corresponding to the recorded voice data after the reproduction and recording are completed. ,
A reproduction means for reproducing audio data according to the designation in the audio output unit, and
An electronic device characterized by being equipped with.
<Claim 2>
If the user performs an operation to stop the recording after the start of the recording and before the preset recording time elapses, the reproduction / recording control means stops the recording at that time. The electronic device according to claim 1.
<Claim 3>
The text includes a text in a first language corresponding to the voice and a text in a second language indicating its meaning.
A display control means for controlling whether or not to display the text of the first language and the text of the second language on the display for the conversation part of each speaker according to the level selected by the user is provided. The electronic device according to
<Claim 4>
The storage unit is characterized in that the voice data, the text of the first language, and the text of the second language are stored for each of the conversation portions of the plurality of speakers. The electronic device according to
<Claim 5>
Claims 1 to 4 include an identification display means for displaying a plurality of characters corresponding to a plurality of speakers during the reproduction and recording, and for identifying and displaying which speaker's turn. The electronic device according to any one of the above.
<Claim 6>
A counting means for counting the number of conversation learning exercises performed by the playing means by reproducing the voice according to the designation, and a counting means.
A level setting means that automatically sets the level according to the number of exercises counted by the counting means, and a level setting means.
The electronic device according to any one of claims 1 to 5, wherein the electronic device is provided with.
<Claim 7>
A computer equipped with a storage unit that stores conversation texts spoken by multiple speakers and voice data corresponding to the texts.
A speaker designation means for designating one of the plurality of speakers, and
In the conversation portion of either the one speaker designated by the speaker designation means and the other speaker other than the one speaker, the voice output unit reproduces the voice data stored in the storage unit. The voice uttered by the user input from the voice input unit without reproducing the voice in the conversation part of any one of the one speaker and the other speakers other than the one speaker. Playback recording control means that controls the recording of
As a designation means for designating whether to reproduce the recorded voice data or the voice data stored in the storage unit as a conversation part corresponding to the recorded voice data after the reproduction and recording are completed. ,
A reproduction means for reproducing audio data according to the designation in the audio output unit,
A program to function as.
1、101 電子機器
2 ディスプレイ
14 音声入力部
15 音声出力部
20 制御部(話者指定手段、再生録音制御手段、指定手段、再生手段、表示制御手段、
識別表示手段、カウント手段、レベル設定手段)
30 記憶部
A 一の話者以外の話者
B 一の話者
STEP レベル
1, 101
Identification display means, counting means, level setting means)
30 Memory A Speakers other than one speaker B One speaker STEP level
Claims (8)
前記第2話者の発話部分に対応してユーザが発声した前記第1言語による音声の音声データを、前記第1再生制御手段により再生される前記会話の進行に合わせて録音する録音制御手段と、
前記録音制御手段により録音した前記ユーザの音声データを再生する第2再生制御手段と、
前記第1話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語と前記第2言語の両方のテキストを非表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第1判断手段と、
前記第2話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語のテキストを非表示にして前記第2言語のテキストを表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第2判断手段と、
前記第1判断手段および前記第2判断手段の判断結果に応じて、前記第1話者の発話部分に対応する前記第1言語または前記第2言語のテキストと、前記第2話者の発話部分に対応する前記第1言語または前記第2言語のテキストを、前記第1再生制御手段により再生される前記会話の進行に合わせて表示する制御を行う表示制御手段と、
を備える電子機器。 In learning for conversations in which a plurality of speakers including the first speaker and the second speaker alternately speak, the progress of the conversation is performed by using the voice data of the first language corresponding to the uttered portion of the first speaker. The first playback control means that reproduces according to
A recording control means for recording the voice data of the voice in the first language uttered by the user corresponding to the utterance portion of the second speaker in accordance with the progress of the conversation reproduced by the first playback control means. ,
A second reproduction control means for reproducing the voice data of the user recorded by the recording control means, and
When displaying the text corresponding to the utterance portion of the first speaker, the texts of both the first language and the second language are displayed, or the texts of both the first language and the second language are not displayed. A first determination means for determining whether to display based on a level selected corresponding to the user, and
When displaying the text corresponding to the utterance portion of the second speaker, the text in both the first language and the second language is displayed, or the text in the first language is hidden and the second language is displayed. A second judgment means for judging whether to display the text of the above based on the level selected corresponding to the user, and
Depending on the determination results of the first determination means and the second determination means, the text of the first language or the second language corresponding to the utterance portion of the first speaker and the utterance portion of the second speaker. A display control means for controlling the display of the text in the first language or the second language corresponding to the above in accordance with the progress of the conversation reproduced by the first reproduction control means.
Electronic equipment equipped with.
前記複数の話者のうちのいずれの話者を前記第2話者とするかを選択する選択手段と、
を備える請求項1に記載の電子機器。 A storage unit that stores the text of the first language of a conversation spoken by a plurality of speakers alternately, the voice data of the first language corresponding to the text, and the text of the second language indicating the meaning of the text. When,
A selection means for selecting which of the plurality of speakers is to be the second speaker, and
The electronic device according to claim 1.
請求項2に記載の電子機器。 The first reproduction control means controls so that the voice data of the first language corresponding to the utterance portion of the second speaker is not reproduced during the progress of the conversation.
The electronic device according to claim 2.
前記第2再生制御手段は、前記指定手段の指定に応じて、前記録音制御手段により録音したユーザの音声データまたは前記記憶部に記憶されている前記第1言語の音声データを再生する、
請求項2又は3に記載の電子機器。 After the end of the reproduction and recording in accordance with the progress of the conversation, the user's voice data recorded corresponding to the utterance portion of the second speaker and the memory corresponding to the utterance portion of the second speaker. It is provided with a designation means for designating which of the voice data of the first language stored in the unit is to be reproduced.
The second reproduction control means reproduces the user's voice data recorded by the recording control means or the voice data of the first language stored in the storage unit according to the designation of the designated means.
The electronic device according to claim 2 or 3.
請求項1乃至4のいずれか一項に記載の電子機器。 The level selected for the user is the level of the user's foreign language ability or the level of learning of the user .
The electronic device according to any one of claims 1 to 4.
前記カウント手段によりカウントされた前記学習の回数に応じて前記ユーザの学習レベルを設定する、
請求項5に記載の電子機器。 A counting means for counting the number of times of learning performed by the first reproduction control means by reproducing the voice data of the conversation, and
The learning level of the user is set according to the number of times of learning counted by the counting means.
The electronic device according to claim 5.
第1話者と第2話者を含む複数の話者が交互に発話する会話を対象とした学習において、前記第1話者の発話部分に対応する第1言語の音声データを前記会話の進行に合わせて再生する第1再生制御処理と、
前記第2話者の発話部分に対応してユーザが発声した前記第1言語による音声の音声データを、前記第1再生制御処理により再生される前記会話の進行に合わせて録音する録音制御処理と、
前記録音制御処理により録音した前記ユーザの音声データを再生する第2再生制御処理と、
前記第1話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語と前記第2言語の両方のテキストを非表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第1判断処理と、
前記第2話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語のテキストを非表示にして前記第2言語のテキストを表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第2判断処理と、
前記第1判断処理および前記第2判断処理の判断結果に応じて、前記第1話者の発話部分に対応する前記第1言語または前記第2言語のテキストと、前記第2話者の発話部分に対応する前記第1言語または前記第2言語のテキストを、前記第1再生制御処理により再生される前記会話の進行に合わせて表示する制御を行う表示制御処理と、
を実行する学習支援方法。 The device is
In learning for conversations in which a plurality of speakers including the first speaker and the second speaker alternately speak, the progress of the conversation is performed by using the voice data of the first language corresponding to the uttered portion of the first speaker. The first playback control process that plays back according to
A recording control process for recording the voice data of the voice in the first language uttered by the user corresponding to the utterance portion of the second speaker in accordance with the progress of the conversation reproduced by the first playback control process. ,
A second playback control process for reproducing the user's voice data recorded by the recording control process, and
When displaying the text corresponding to the utterance portion of the first speaker, the texts of both the first language and the second language are displayed, or the texts of both the first language and the second language are not displayed. The first judgment process of determining whether to display based on the level selected corresponding to the user, and
When displaying the text corresponding to the utterance portion of the second speaker, the text in both the first language and the second language is displayed, or the text in the first language is hidden and the second language is displayed. The second judgment process of judging whether to display the text of the above based on the level selected corresponding to the user, and
Depending on the determination results of the first determination process and the second determination process, the text of the first language or the second language corresponding to the utterance portion of the first speaker and the utterance portion of the second speaker. A display control process for controlling the display of the text in the first language or the second language corresponding to the above in accordance with the progress of the conversation reproduced by the first reproduction control process.
Learning support method to carry out.
第1話者と第2話者を含む複数の話者が交互に発話する会話を対象とした学習において、前記第1話者の発話部分に対応する第1言語の音声データを前記会話の進行に合わせて再生する第1再生制御処理と、
前記第2話者の発話部分に対応してユーザが発声した前記第1言語による音声の音声データを、前記第1再生制御処理により再生される前記会話の進行に合わせて録音する録音制御処理と、
前記録音制御処理により録音した前記ユーザの音声データを再生する第2再生制御処理と、
前記第1話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語と前記第2言語の両方のテキストを非表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第1判断処理と、
前記第2話者の発話部分に対応するテキストを表示する場合に、前記第1言語と第2言語の両方のテキストを表示するか、前記第1言語のテキストを非表示にして前記第2言語のテキストを表示にするかを、前記ユーザに対応して選択されたレベルに基づいて判断する第2判断処理と、
前記第1判断処理および前記第2判断処理の判断結果に応じて、前記第1話者の発話部分に対応する前記第1言語または前記第2言語のテキストと、前記第2話者の発話部分に対応する前記第1言語または前記第2言語のテキストを、前記第1再生制御処理により再生される前記会話の進行に合わせて表示する制御を行う表示制御処理と、
を実行させるためのプログラム。 On the computer
In learning for conversations in which a plurality of speakers including the first speaker and the second speaker alternately speak, the progress of the conversation is performed by using the voice data of the first language corresponding to the uttered portion of the first speaker. The first playback control process that plays back according to
A recording control process for recording the voice data of the voice in the first language uttered by the user corresponding to the utterance portion of the second speaker in accordance with the progress of the conversation reproduced by the first playback control process. ,
A second playback control process for reproducing the user's voice data recorded by the recording control process, and
When displaying the text corresponding to the utterance portion of the first speaker, the texts of both the first language and the second language are displayed, or the texts of both the first language and the second language are not displayed. The first judgment process of determining whether to display based on the level selected corresponding to the user, and
When displaying the text corresponding to the utterance portion of the second speaker, the text in both the first language and the second language is displayed, or the text in the first language is hidden and the second language is displayed. The second judgment process of judging whether to display the text of the above based on the level selected corresponding to the user, and
Depending on the determination results of the first determination process and the second determination process, the text of the first language or the second language corresponding to the utterance portion of the first speaker and the utterance portion of the second speaker. A display control process for controlling the display of the text in the first language or the second language corresponding to the above in accordance with the progress of the conversation reproduced by the first reproduction control process.
A program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019145897A JP6841309B2 (en) | 2019-08-08 | 2019-08-08 | Electronics and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019145897A JP6841309B2 (en) | 2019-08-08 | 2019-08-08 | Electronics and programs |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014251392A Division JP6613560B2 (en) | 2014-12-12 | 2014-12-12 | Electronic device, learning support method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020003806A JP2020003806A (en) | 2020-01-09 |
JP6841309B2 true JP6841309B2 (en) | 2021-03-10 |
Family
ID=69099823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019145897A Active JP6841309B2 (en) | 2019-08-08 | 2019-08-08 | Electronics and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6841309B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114829710A (en) | 2020-01-14 | 2022-07-29 | 住友重机械工业株式会社 | Shovel and remote operation support device |
CN111787259B (en) * | 2020-07-17 | 2021-11-23 | 北京字节跳动网络技术有限公司 | Video recording method and device, electronic equipment and storage medium |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07261652A (en) * | 1994-03-23 | 1995-10-13 | Takeshi Yamamoto | Language learning method and recording medium for language learning |
JPH1138863A (en) * | 1997-07-17 | 1999-02-12 | Fuji Xerox Co Ltd | Language information apparatus |
JP2003323104A (en) * | 2002-05-02 | 2003-11-14 | Uchida Yoko Co Ltd | Language learning system |
CN1474264A (en) * | 2002-08-06 | 2004-02-11 | 无敌科技股份有限公司 | Chinese learing method with computer for interactive conversation |
JP3978465B2 (en) * | 2003-12-04 | 2007-09-19 | サン電子株式会社 | Recording / playback device |
JP2007187939A (en) * | 2006-01-13 | 2007-07-26 | Hidemi Baba | English conversation learning apparatus |
US20100273138A1 (en) * | 2009-04-28 | 2010-10-28 | Philip Glenny Edmonds | Apparatus and method for automatic generation of personalized learning and diagnostic exercises |
JP5254487B1 (en) * | 2012-11-19 | 2013-08-07 | プラト株式会社 | Portable information terminal, shadow voice management method, and computer program |
-
2019
- 2019-08-08 JP JP2019145897A patent/JP6841309B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020003806A (en) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200175890A1 (en) | Device, method, and graphical user interface for a group reading environment | |
US6324507B1 (en) | Speech recognition enrollment for non-readers and displayless devices | |
JP6613560B2 (en) | Electronic device, learning support method and program | |
US20140315163A1 (en) | Device, method, and graphical user interface for a group reading environment | |
JP6841309B2 (en) | Electronics and programs | |
JP2015036788A (en) | Pronunciation learning device for foreign language | |
JP6792091B1 (en) | Speech learning system and speech learning method | |
JP6166831B1 (en) | Word learning support device, word learning support program, and word learning support method | |
JP6466391B2 (en) | Language learning device | |
JP7376071B2 (en) | Computer program, pronunciation learning support method, and pronunciation learning support device | |
JPH1138863A (en) | Language information apparatus | |
JP7135372B2 (en) | LEARNING SUPPORT DEVICE, LEARNING SUPPORT METHOD AND PROGRAM | |
JP6155102B2 (en) | Learning support device | |
JP7013702B2 (en) | Learning support device, learning support method, and program | |
KR20140075994A (en) | Apparatus and method for language education by using native speaker's pronunciation data and thought unit | |
KR20140028527A (en) | Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word | |
JP7118389B2 (en) | Language learning device, language learning method, and language learning program | |
JP6068811B2 (en) | English learning method with smart devices, application software and smart devices | |
JP2019060914A (en) | Learning support apparatus, learning support system, learning support method, and program | |
JPH0816089A (en) | Pronunciation comparing learning device | |
JP3146823U (en) | Electronics | |
JP6498346B1 (en) | Foreign language learning support system, foreign language learning support method and program | |
KR20220161977A (en) | Method of interactive foreign language learning by voice talking each other using voice recognition function and TTS function | |
JP2015125203A (en) | Sound output device and sound output program | |
KR20140087953A (en) | Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190828 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190828 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6841309 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |